MD Бизнес-план Маркетинг Управление Инвестиции Промоушен HR IT
md-it
md-it
>
Интернет и интранет Дистанционное обучение Системы с открытым исходным кодом Интеллектуальные системы Автоматизация предприятий Книги по IT Услуги IT-консалтинга О проекте
 
Интернет и интранет :: Все об Интернете : Что такое Веб 2.0

Все об Интернете : Что такое Веб 2.0


Крах доткомов осенью 2001 года стал для веба поворотным пунктом. Многие решили, что феномен веба был слишком раздут, хотя, на самом деле, «мыльные пузыри» и, как результат этого, падение акций — неизбежно сопутствуют всем технологическим революциям. Падение акций обычно происходит тогда, когда новая технология готова занять центральное место на сцене. На волне поднимаются и мошенники, и те, кто действительно добился успеха, — и в какой-то момент приходит понимание, чем первые отличаются от вторых.


Что такое Веб 2.0

Концепция Веба 2.0 родилась на совместном мозговом штурме издательства O’Reilly Media и компании MediaLive International. Веб-пионер и вице-президент O’Reilly Дейл Дагерти (Dale Dougherty) отметил, что сам-то веб далек от краха и даже более важен, чем раньше, раз уж впечатляющие новые приложения и сайты появляются с завидной регулярностью. Больше того, у фирм, переживших коллапс, было нечто общее. Может быть, в результате доткомовского краха имеет смысл говорить о Вебе 2.0. Мы решили, что так и есть. Так родилась Web 2.0 Conference.

За полтора года термин «Веб 2.0» прижился (более 9,5 млн. ссылок в Google). Но относительно того, что он обозначает, в товарищах согласья нет. Одни приняли новую концепцию, другие полагают, что это бессмысленный маркетинговый термин.

Я постараюсь объяснить, что мы имеем в виду, говоря о Веб 2.0.

На нашей первой встрече, мы определяли Веб 2.0, отталкиваясь от конкретных примеров.

Веб 1.0Веб 2.0
DoubleclickGoogle AdSense
OfotoFlickr
AkamaiBitTorrent
mp3.comNapster
Britannica OnlineWikipedia
Персональные сайтыБлоги
Eviteupcoming.org и EVDB
Спекуляция доменными именамиПоисковая оптимизация
Оплата рекламы по количеству показовОплата рекламы по количеству переходов
Извлечение данных из HTMLВеб-сервисы
ПубликацияСоавторство
Системы управления контентом (CMS)Wiki
Каталоги (таксономия)Теги (фолксономия)
Удержание пользователейСиндикация контента

Список все увеличивался и увеличивался. Но почему одно приложение мы отнесли к Вебу 1.0, а второе — к категории Веб 2.0? (Это важный вопрос, поскольку Веб 2.0 стал настолько популярным, что многие компании используют сегодня этот термин в своем маркетинге, зачастую даже не понимая, что он означает. С другой стороны, этот вопрос не так уж прост, потому что множество падких на красивые термины стартапов не имеют никакого отношения к Вебу 2.0, тогда как отдельные приложения, которые мы считаем Вебом 2.0, даже веб-приложениями не являются — например, Napster и BitTorrent.)

Анализируя наиболее успешные проекты Веба 1.0 и самые интересные новые приложения, мы попытались выделить основные принципы Веба 2.0.

Веб как платформа

Как многие важные концепции, Веб 2.0 не имеет четких границ. Это, скорее, центр притяжения. Вы можете представить себе Веб 2.0 как множество правил и практических решений. Они объединены в некое подобие солнечной системы, состоящей из узлов, каждый из которых построен с учетом некоторых или всех описанных правил и находится на определенной дистанции от центра.


На рисунке показана карта Веба 2.0, созданная нами во время мозгового штурма на конференции FOO Camp. Ее нельзя назвать завершенной, но она иллюстрирует многие ключевые идеи Веба 2.0.

К примеру, на первой конференции Веб 2.0 в октябре 2004 мы с Джоном Баттелем (John Battelle) озвучили предварительный список правил в совместном выступлении, открывающем конференцию. И первое правило гласит: «Веб как платформа». Конечно, еще до нас об этом навзрыд говорил Netscape, сгоревший в жаркой битве с Microsoft. Больше того, две компании из нашего списка Веб 1.0 — Akamai и DoubleClick — также были среди первопроходцев, рассматривавших веб как платформу. Люди нечасто воспринимают эти компании как поставщиков веб-сервисов, но, на самом деле, демонстрация рекламы — это первый широко распространенный веб-сервис, первый широко распространенный «mash-up» (если использовать термин, завоевавший в последнее время популярность). Каждый баннер доставлялся пользователю в результате незаметной кооперации двух сайтов, совместно формирующих страницу для показа. Akamai также рассматривал сеть как платформу, и даже на более низком уровне: обеспечивая незаметное кэширование и построив сеть доставки контента, чтобы снизить нагрузку на сайты своих клиентов.

Последователи DoubleClick и Akamai не только использовали наработки этих компаний, но пошли дальше, глубже чувствуя истинную природу новой платформы. Обе компании можно считать пионерами Веб 2.0, хотя ниже мы увидим, как более полно реализовать возможности веба за счет использования новых подходов.

Давайте внимательно рассмотрим три примера, чтобы понять, чем, по сути, старые компании отличаются от новых.

Netscape vs. Google

Если Netscape был флагманом Веба 1.0, то Google, конечно, -

общепризнанный флагман Веба 2.0. <…> Так что давайте сравним сами компании и их позиционирование.

Netscape твердил о «вебе как платформе» в терминах старой софтверной парадигмы: главным продуктом компании был веб-браузер (настольное приложение), и стратегия Netscape заключалась в использовании своего доминирующего положения на рынке браузеров для продвижения дорогостоящих серверных продуктов. Контроль над стандартами отображения контента и браузерных приложений мог, в теории, обеспечить Netscape такое же место, какое Microsoft завоевала на рынке ПК. Автомобили когда-то рекламировали как «безлошадные экипажи». Точно так же, отталкиваясь от знакомых концепций, Netscape продвигал «вебтоп» на место «десктопу», предполагая подпитывать вебтоп данными и приложениями от провайдеров контента (которые купят у Netscape серверы).

В итоге и веб-браузеры, и веб-серверы превратились в нечто обыденное, а акцент переместился «к вершине стека», к веб-сервисам.

Google, напротив, был веб-приложением от рождения. Это сервис, за доступ к которому прямо или косвенно платили пользователи. Ни одна из привычных ловушек старой софтверной индустрии ему была не страшна. Вместо запланированных релизов — постоянное улучшение продукта. Вместо лицензирования или продаж — просто использование. Нет нужды заботиться о портировании ПО на другие платформы — все, что нужно для запуска Google, — это расширяемый массив из обыкновенных ПК с запущенной открытой ОС да собственные приложения и утилиты, которых никто за пределами компании не увидит. Фактически стоимость ПО была пропорциональна масштабу и динамичности данных, с которыми оно помогало управляться.

Сервис Google это не сервер, хотя доставка сервиса обеспечивается массивом интернет-серверов, — и не браузер, хотя пользователь получает доступ к сервису именно через него. И это не прославленный поисковик, хранящий контент, позволяющий пользователю осуществлять поиск. Как и телефонный звонок, который случается не на концах телефонной линии, а в сети между ними, сервис Google осуществляется в пространстве между браузером, поисковиком и целевым сервером, на котором содержится искомое. Google — это посредник между пользователем и его/ее онлайновым опытом.

И хотя Google и Netscape — софтверные компании, очевидно, что Netscape принадлежит к миру Lotus, Microsoft, Oracle, SAP и прочих фирм, чьи истоки — в софтверной революции 80-х, тогда как Google и иже с ним — это интернет-приложения (как eBay, Napster и, чего уж там, DoubleClick и Akamai).

DoubleClick vs. Overture and AdSense

Как и Google, DoubleClick — это истинное дитя интернет-эры. Компания рассматривает ПО как услугу, умеет управлять данными и, как отмечено выше, предоставляла доступ к веб-сервисам задолго до того, как этот термин был придуман. Однако DoubleClick очень жестко ограничена своей бизнес-моделью. В 90-х считалось, что веб — это, прежде всего, публикация контента, а не взаимодействие; что правят бал не потребители, а рекламодатели; что размер имеет значение и Интернет, по большому счету, будет состоять из раскрученных веб-сайтов, чья популярность измерена MediaMetrix или другим веб-аудитором.

В результате DoubleClick с гордостью упоминает на собственном сайте о «более чем 2000 успешных установках» своего ПО. Yahoo! Search Marketing (ранее Overture) и Google AdSense в то же самое время обслуживают сотни тысяч рекламных площадок.

Overture и Google добились успеха, потому что поняли концепцию «длинного хвоста» (терминология Криса Андерсона) — «коллективной мощи маленьких сайтов, которые поставляют значимую часть контента». Предложение DoubleClick подразумевает подписание официального контракта, ограничивая рынок до нескольких тысяч крупных сайтов. Overture и Google отыскали способ размещения рекламного модуля практически на любой странице. Больше того, они предпочли рекламным форматам, ориентированным на издателей и агентства (баннеры, поп-апы), менее навязчивые, привязанные к контексту и дружелюбные к пользователю текстовые рекламные блоки.

Урок Веба 2.0: сделайте упор на пользовательские сервисы и алгоритмическую обработку данных, чтобы дотянуться до самых краешков веба, обращайте внимание не только на голову, но и на хвост. <…>

Неудивительно, что другие истории успеха Веба 2.0 демонстрируют нам примерно то же поведение. eBay разрешил единичные транзакции стоимостью в несколько долларов между физическими лицами, исполняя роль автоматического посредника. Napster (хотя и был закрыт из-за проблем с законом) построил свою сеть, не пытаясь создать общую централизованную базу данных, но спроектировав всю систему так, что каждый клиент становился также и сервером, способствуя тем самым росту сети. [Вообще говоря, закрыть Napster технически стало возможно только потому, что полностью от централизованности создателям сервиса отказаться не удалось. — Прим. ред.].

Akamai vs. BitTorrent

Как и DoubleClick, Akamai был оптимизирован для работы с головой, а не хвостом, ориентирован на центр, а не на окраины. Несмотря на то что сервис Akamai работал на благо тех, кто находился в конце «длинного хвоста», облегчая им доступ к популярным сайтам, деньги свои компания получала именно от сайтов.

BitTorrent, как другие пионеры P2P-движения, сделал следующий шаг к децентрализации Интернета. Каждый клиент является и сервером, файлы разбиваются на фрагменты, которые могут быть загружены из разных источников, незаметно принуждая пользователей предоставлять друг другу каналы и данные. Чем популярнее файл, тем быстрее он может быть доставлен, так как больше пользователей обеспечивает суммарную пропускную способность и больше фрагментов целого файла доступно в Сети.

Таким образом BitTorrent демонстрирует нам ключевой принцип Веб 2.0: чем больше людей использует сервис, тем автоматически он становится лучше. Если Akamai вынужден добавлять серверы для улучшения качества услуг, то каждый пользователь BitTorrent приходит на вечеринку со своими ресурсами. Это имплицитная «партнерская архитектура», встроенная этика кооперации, согласно которой сервис действует в первую очередь как разумный посредник, соединяющий края друг с другом и использующий для этого ресурсы самих пользователей.

Платформа всегда выигрывает у приложения

В каждом из предыдущих эпизодов конкурентной борьбы Microsoft успешно разыгрывала карту платформы, перебивая ею самые популярные приложения. С помощью Windows Microsoft заменила Lotus 1-2-3 на Excel, WordPerfect — на Word, а Netscape Navigator — на Internet Explorer.

Однако на этот раз конфликт не между приложением и платформой. Это конфликт двух платформ, каждая из которых предлагает радикально отличную бизнес-модель. С одной стороны, единственный поставщик ПО с впечатляющей базой инсталляций, сильно интегрированной ОС и API, дающим

контроль над парадигмой программирования. С другой стороны — система, у которой нет владельца, собранная вместе с помощью множества протоколов, открытых стандартов и соглашений о сотрудничестве.

Windows представляет собой апофеоз проприетарного контроля за программным API. Netscape пытался перехватить инициативу, используя те же техники, что и сама Microsoft использует против своих конкурентов, но проиграл. Однако Apache, основанный на открытых веб-стандартах, процветает. Когда платформа соревнуется с платформой и стоит вопрос о выборе платформы или, если копнуть глубже, о выборе архитектуры, о выборе бизнес-модели, то битва ведется на равных.

Windows была отличным решением проблем ранней эпохи ПК. Она разровняла игровое поле для разработчиков приложений, решив множество проблем, терзавших индустрию. Но единый рывок, осуществленный силами единственного поставщика, больше решением быть не может. Он сам становится проблемой. Системы, ориентированные на коммуникации, каковой является Интернет-как-платформа, требуют возможности взаимодействия на уровне приложений. До тех пор пока поставщик не контролирует оба конца каждого соединения, его возможности по привязке пользователя с помощью API ограничены.

Любой поставщик решения для Веб 2.0, решивший ради выгоды замкнуть собственное приложение на себя путем контроля над платформой, по определению не сможет воспользоваться ее сильными сторонами.

Это я не к тому, что возможностей для закрытия ПО и создания конкурентных преимуществ больше нет, но мы верим, что они не заключаются в контроле над программным API и протоколами. Правила игры изменились. И добиться успеха в эпоху Веба 2.0 смогут те, кто принял новые правила, а не пытается использовать приемы, работавшие в эпоху программного обеспечения для ПК.

Использование коллективного разума

Главный принцип, лежащий за успехом гигантов, рожденных в эпоху Веба 1.0, гигантов, которые выжили и сделали Веб 2.0 таким, какой он есть, заключается в том, что они усилили веб-технологии за счет коллективного разума:

  • В основе веба лежат ссылки. Когда пользователи создают новый контент и новые сайты, они с помощью пользователей, обнаруживших этот контент и поставивших на него ссылки, попадают в структуру веба. Во многом это напоминает формирование синапсов в мозге, когда ассоциации закрепляются за счет многократного повторения или яркости переживаний: точно так же паутина связей разрастается за счет коллективной активности всех веб-пользователей.
  • Yahoo! — первая успешная интернет-компания. Она родилась как каталог или как директория ссылок — результат старательной работы тысяч, а затем и миллионов пользователей. И хотя Yahoo! с тех пор диверсифицировала свой бизнес, создавая самый разный контент, собранная пользователями коллекция до сих пор является ее главным активом.
  • Прорыв Google в поиске, в мгновение ока сделавший компанию безоговорочным лидером рынка, был основан на PageRank, методе, использующем для обеспечения наилучших результатов прежде всего ссылочную структуру веба, а не характеристики проиндексированных документов.
  • Продукт eBay — коллективная активность всех пользователей. Как и сам веб, eBay рос вместе с ростом пользовательской активности, и роль компании — это роль открывателя контекста, в котором может реализоваться пользовательская активность. Больше того, конкурентное преимущество eBay заключается исключительно в критической массе продавцов и покупателей.
  • Amazon торгует теми же товарами, что и его конкуренты. У них те же описания продуктов, те же изображения обложек и тот же редакторский контент от производителей. Но Amazon научился привлекать пользователей. У Amazon на порядки больше пользовательских обзоров; приглашения поучаствовать в работе сервиса размещены буквально на каждой странице — и что еще важнее, компания использует пользовательскую активность для обеспечения более качественных результатов поиска. Если поиск на Barnesandnoble.com обычно ведет на собственные продукты компании или проплаченные результаты, то результаты поиска на Amazon — это самые востребованные продукты, популярность которых вычисляется в реальном времени не только на основании продаж, но и с учетом других факторов, которые работники Amazon называют flow (поток). Неудивительно, что Amazon, на порядки опережающий конкурентов по активности пользователей, опережает их и в финансовом отношении.

Перечислим значимые инновационные компании, сделавшие ставку на взаимодействие с пользователями:

  • Wikipedia,онлайновая энциклопедия, построенная вокруг неправдоподобной идеи, что энциклопедическая статья может быть добавлена любым пользователем и отредактирована другим. Радикальный эксперимент в области доверия, на практике применивший афоризм Эрика Реймонда «у семи тысяч нянек — дитя в шоколаде» для создания контента. Wikipedia уже сейчас находится в первой сотне вебсайтов, и многие думают, что вскоре она окажется и в первой десятке. Чрезвычайное изменение в динамике создания контента!
  • Такие сайты, как del.icio.us и Flickr. Обе компании, оказавшиеся в последнее время в центре внимания, первыми представили концепцию, которую некоторые называют «фолксономией» (в противоположность таксономии), то есть совместной категоризацией сайтов с использованием свободно выбираемых ключевых слов (тегов). Расстановка тегов позволяет выйти за жесткие рамки категорий и использовать множественные, перекрывающиеся ассоциации, наподобие тех, что создает наш собственный мозг. В каноническом примере размещенный на Flickr снимок щенка может быть помечен и как «щенок», и как «милый» — что облегчает последующий поиск информации.
  • Создаваемые совместно спам-фильтры (такие как Cloudmark) собирают мнения пользователей электронной почты, что является спамом, а что нет, и работают лучше, чем системы, полагающиеся на анализ самих сообщений.

    Общеизвестно, что самые успешные интернет-проекты не рекламировались. Своей популярностью они обязаны «вирусному маркетингу», «сарафанному радио». И если сайт или продукт зависит от обычной рекламной кампании, то скорее всего это не Веб 2.0.

  • Даже большая часть самой инфраструктуры веба — включая Linux, Apache, MySQL и Perl, PHP или Python — обязана P2P-методам открытых исходников, которые сами по себе есть примеры результатов коллективной, возможной благодаря сети интеллектуальной деятельности. На SourceForge.net больше ста тысяч проектов в открытых исходниках. Каждый может добавить проект, любой способен загрузить и использовать код, и новые проекты мигрируют от краев к центру, если пользователи начинают их использовать.

Естественный процесс распространения программного обеспечения полностью обеспечивается вирусным маркетингом.

Урок: сетевые эффекты от взаимодействия с пользователями — это ключ к рыночному доминированию в эпоху Веб 2.0.

Блоги и мудрость масс

Одна из самых растиражированных особенностей эпохи Веба 2.0 — блог. Персональные домашние странички стояли у самих истоков веба, личный дневник и ежедневная колонка — недалеко, в общем-то, ушли. Так по какому поводу шум?

В основе своей блог — это просто персональная домашняя страничка в формате дневника. Но как отметил Рик Скрента (Rich Skrenta) — хронологическая организация блога хоть и «кажется мелочью, приводит к совершенно новой цепочке распространение-продвижение-стоимость».

Во многом блоги обязаны RSS — самому значительному нововведению в фундаментальную архитектуру веба с тех пор как первые хакеры поняли, что CGI можно использовать для создания веб-интерфейсов к БД. RSS позволяет не просто ссылаться на страницу, но подписываться на нее, получая оповещение каждый раз, когда страница изменяется. Скрента называет это «прирастающим вебом», другие — «живым вебом».

Динамические сайты пришли на смену статическим страничкам еще десять лет назад. Но в случае живого веба динамическими стали не страницы, а ссылки на них. Ссылаясь на веблог, вы ссылаетесь на страницу с постоянно меняющимся контентом, которая содержит пермалинки (постоянные ссылки) для каждой индивидуальной записи и напоминает о каждом изменении. И RSS-фид — это намного более цепкая привязка к сайту, чем, скажем, закладка или ссылка на конкретную страничку.

RSS также означает, что браузер перестал быть единственным средством для просмотра страницы. Хотя некоторые RSS-аггрегаторы (такие как Bloglines) являются веб-приложениями, есть и настольные клиенты, и мобильные.

RSS сейчас начинают использовать не только для оповещений о новых записях в блоге, но и для всех видов информационных апдейтов, включая изменения курсов акций и прогнозы погоды. Такое использование — в некотором роде возвращение к корням. RSS родилась в 1997 году в результате пересечения технологии Really Simple Syndication Дэйва Вайнера (Dave Winer), используемой для оповещения об изменениях в блогах, и нетскейповской Rich Site Summary, которая позволяла пользователям создавать произвольные нетскейповские странички с регулярно обновляемым потоком данных. Netscape потерял интерес к технологии,и она досталась пионерам блоггинга — компании Вайнера Userland. В нынешних приложениях мы видим наследие от обоих «родителей».

Но не только RSS отличает блог от обычной странички. Том Коутс (Tom Coates) отмечает важность постоянных ссылок, пермалинков:

«Сегодня это может выглядеть очевидным, но пермалинки — эффективное средство, превратившее веблоги из механизма простой публикации в говорливое множество частично пересекающихся сообществ. Благодаря пермалинкам стало легко ссылаться на конкретные записи в других журналах и обсуждать их. Дискуссии расширялись. Разговоров становилось все больше. В результате дружеские связи крепли и становились более надежными. Пермалинк был первой — и самой успешной — попыткой построить между блогами мостики».

Во многих отношениях комбинация RSS и пермалинков добавляет в HTTP функциональность, присущую NNTP. Блогосферу можно рассматривать как новый P2P-эквивалент Usenet и форумам, эдаким «пивным» раннего интернета. Теперь пользователи могли не только с точностью до комментария ссылаться на чужие сайты, но — через механизм трекбэков — могли видеть, кто ссылается на них и реагировать: либо через обратные ссылки, либо посредством комментариев.

Интересно, что двусторонние ссылки были целью ранних гипертекстовых систем (Xanadu). Пуристы приветствовали появление трекбэков как шаг вперед к двусторонним ссылкам. Но отметим, что трекбэки не были по-настоящему двусторонними — скорее, они (потенциально) симметричные односторонние ссылки, создающие эффект двусторонних ссылок. Разница может показаться незначительной, но на практике системы социальных сетей (Friendster, Orkut, LinkedIn), требующие подтверждения получателя для создания соединения, испытывают недостаток масштабирования. Как говорит сооснователь Flickr Катерина Фэйк (Caterina Fake), внимание редко бывает взаимным (Flickr позволяет пользователям создавать списки просмотра — каждый пользователь может отслеживать фотопоток другого пользователя через RSS. Объект внимания ставится в известность, но его разрешение для создания потока не требуется).

Если ключевая часть Веба 2.0 — использование коллективного разума — превращает веб в некое подобие глобального мозга, то блогосфера — это его внутренний голос. Может, он и не связан с глубинными структурами мозга (подсознанием), но является аналогом мышления. Мощный всплеск блогосферы как отражения того, о чем люди думают и чему уделяют внимание, вызван следующим.

Во-первых, из-за того, что поисковики используют структуру ссылок для отыскания нужных страниц, блоггеры, как самые плодородные создатели актуальных ссылок, начали играть диспропорциональную роль в формировании результатов поиска. Во-вторых, поскольку сообщество блоггеров обладает высокой внутренней ссылочностью, заметность страниц еще более увеличивалась. И даже нещадно критикуемый эффект замкнутых сообществ (их участники зачастую зациклены на одних и тех же темах и не слишком обращают внимание на внешний мир) — тоже сыграл блогам на руку.

Но если бы речь шла только об усилении влияния, феномен блогов был бы не интересен. Но как и Wikipedia блоги использовали коллективный разум как фильтр. На сцене появилось то, что Джейм Суриовеки (James Suriowecki) назвал «мудростью масс». Почти по принципу PageRank, который дает лучшие результаты, чем анализ содержимого документа, коллективное внимание блогосферы само по себе стало оценкой качества контента.

Медиасайты старого формата рассматривают индивидуальные блоги как конкурентов, но соперничество ведется не с конкретным блогом, а с блогосферой в целом. Это столкновение не сайтов, а бизнес-моделей. Мир Веба 2.0 — это также мир, который Дэн Гилмор назвал «мы, медиа». Мир, в котором аудитория решает, что действительно важно.

Архитектура взаимодействия

Некоторые системы спроектированы для усиления взаимодействия. Существует три способа создания большой БД. Первый — платить людям за ее составление (Yahoo!). Второй — набрать для той же задачи добровольцев (open-source-проекты). Третий путь открыл Napster. В клиенте Napster по умолчанию загруженная песня была доступна для скачивания другими пользователями сети. Таким образом, каждый пользователь Napster увеличивал ценность распределенной БД. Потом эта же схема была повторена в других P2P-сервисах.

Пользователи могут повысить ценность приложения, но лишь немногие будут делать это добровольно. Поэтому приложения следует проектировать так, чтобы обогащение проекта пользовательской информацией происходило автоматически. Этот момент должен быть частью архитектуры приложения.

Удачная архитектура, возможно, даже больше повлияла на успех открытого софта, чем упомянутые добровольцы. Архитектура Интернета и веба (как и архитектура открытых проектов) такова, что вынуждает нас автоматически повышать их ценность во время использования. У каждого из таких проектов — небольшое технологическое ядро, четкие механизмы расширения и подход, позволяющий любому человеку добавлять новые компоненты, наращивая новые слои «луковицы».

Другими словами, эти технологии демонстрируют сетевые эффекты, просто потому, что они так спроектированы.

Такую архитектуру взаимодействия можно назвать естественной. Но как показал пример Amazon, последовательные усилия (а равно и экономические стимулы — например, партнерская программа) могут создать подобную архитектуру и в системе, которой при обычных условиях это не свойственно.

Данные — это следующий Intel Inside

Все современные интернет-приложения завязаны на базы данных: поисковик от Google, каталог (и поисковик) от Yahoo!, склад товаров на Amazon, картотека товаров и продавцов на eBay, карты MapQuest, каталоги Napster… Хэл Вэриан в прошлом году даже сказал, что «SQL — это новый HTML». Компаниям эпохи Веба 2.0 важно уметь работать с БД. Так важно, что порой мы называем новые приложения не software, а infoware.

Все это подводит нас к главному вопросу: кто владеет данными?

Очевидно — и тому есть множество примеров, — что в эпоху интернета тот, кто владеет БД, владеет и рынком, а значит, получает львиную долю прибыли. Монополия на регистрацию доменных имен, предоставленная американским правительством компании Network Solutions (позднее куплена Verisign), была одной из первых по-настоящему денежных сделок в интернете. И если сохранить рыночное преимущество, контролируя API, все труднее, контроль над важными источниками данных обеспечить куда проще. Особенно если эти источники дорого воссоздать (или они были обогащены с помощью пользователей сервиса).

Взгляните на копирайты на картах от MapQuest, maps.yahoo.com, maps.msn.com или maps.google.com. Везде будет пометка «Maps copyright NavTeq, TeleAtlas» или «Images copyright Digital Globe» (это новый поставщик спутниковых изображений). Обе компании изрядно вложились в свои БД. (Только NavTeq, как говорят, потратила на создание БД с названиями улиц и маршрутами 750 млн. долларов. Digital Globe пришлось расстаться с 500 млн. долларов, чтобы запустить собственный спутник, делающий снимки с лучшим разрешением, чем правительственные сателлиты.) NavTeq дошла до того, что стала лепить свое лого на автомобили, оснащенные системами навигации, — почти как когда-то Intel со своим Intel Inside.

Данные, несомненно, и есть единственный важный компонент подобных приложений, тогда как сам софт по большей части поставляется в открытом виде, а даже если и нет — все равно вполне доступен.

Давайте на примере высококонкурентного рынка веб-картографии посмотрим, как непонимание важности владения ключевыми данными может ухудшить конкурентоспособность. Первой на рынке веб-карт была MapQuest в 1995 году, за ней пришла Yahoo!, потом — Microsoft, а недавно к ним присоединился и Google, — при этом все компании, лицензируют у поставщиков информации, по сути, одни и те же данные.

Возьмем обратный пример: Amazon. Изначально его БД была построена на регистре кодов ISBN от R.R.Bowker. Базы конкурентов, соответственно, не имели существенных отличий. Но в отличие от MapQuest, Amazon без устали дополнял данные, добавляя информацию, предоставленную издателем, — обложки, содержание, оглавление и даже фрагменты из книг. Что важнее, Amazon привлек пользователей для написания аннотаций, и теперь именно Amazon — а вовсе не Bowker — является главным источником библиографической информации для филологов и библиотекарей, не говоря уж о простых смертных. Также в Amazon был разработан уникальный идентификатор ASIN, покрытие которого шире, чем у ISBN.

В общем, Amazon догнал и перегнал своих поставщиков информации.

Представьте, что точно так же поступила бы MapQuest: привлекла бы пользователей к аннотированию карт и маршрутов и даже к созданию новых информационных слоев. Бороться с такой компанией конкурентам, у которых в наличии только оригинальные лицензированные данные, было бы куда труднее.

Именно этим сейчас занимается Google. Google Maps — это эксперимент по созданию конкуренции между поставщиками данных и разработчиками приложений. Упрощенная модель программирования от Google привела к появлению множества дополнительных сервисов, которые построены на совмещении функциональности Google Maps с другими данными, доступными в интернете. Так, например, housingmaps.com позволяет накладывать на карты от Google риэлторские объявления от Craigslist. На выходе у нас получается новое интерактивное приложение, превосходный пример смешивания технологий.

В настоящий момент подобные гибриды в основном являются инновационными экспериментами, уделом хакеров. Но и предпринимательская активность не за горами. Да уже можно видеть как минимум один класс таких разработчиков — ведь сам Google «увел» роль источника данных от Navteq, превратив себя в популярного посредника. В ближайшие несколько лет мы станем свидетелями самых настоящих битв между поставщиками данных и поставщиками приложений — когда обе стороны осознают, что определенная информация может быть ключевой для построения блоков приложений Веба 2.0.

За определенные классы ключевых данных — местоположение, личную информацию о пользователях, календари общественно-значимых событий, идентификаторы товаров и пространства имен — битва уже началась. Если воссоздать набор информации — удовольствие не из дешевых, то компания, у которой эти данные уже есть, может попытаться воспользоваться своим положением и разыграть карту Intel Inside. В других случаях победит та фирма, чья база данных первой наберет критическую массу с помощью пользователей, — если, конечно, компания сможет обратить эти аггрегированные данные в системный сервис.

К примеру, если мы говорим о сетевой идентификации пользователей, то Paypal, Amazon 1-Click и миллионы пользователей систем связи вполне могут считаться соперниками. (В этом смысле последняя инициатива Google, разрешившего подтверждать аккаунты на Google с телефона, выглядит как попытка расширить свою базу за счет телефонных систем.) С другой стороны, есть такие стартапы, как Sxip, сделавшие ставку на интегрированную личность и пытающиеся создать распределенное и простое решение, на основе которого можно будет построить единую подсистему для всего Веба 2.0. На рынке календарных справочников есть EVDB, пытающийся на базе wiki-подобной архитектуры построить крупнейший совместно пополняемый календарь. И хотя сегодня еще рано делать прогнозы, очевидно, что к появлению приложений нового поколения приведут те стандарты и решения, которые позволят эффективно обратить определенные классы данных в надежные подсистемы «операционной системы интернета».

Прежде чем идти дальше, скажем пару слов о пользователях, берегущих свое privacy и право на владение информацией как зеницу ока. Во многих ранних веб-приложениях копирайт учитывался лишь номинально. Так, права на все обзоры, опубликованные на Amazon, принадлежат Amazon, но компания никого еще не преследовала за их републикацию. Однако как только компании поймут, что контроль над данными и есть их главное конкурентное преимущество, то станут стеречь свои данные куда ревностней.

Как успех проприетарного софта привел к рождению движения Free Software, так и усиление роли проприетарных БД уже в следующем десятилетии приведет к рождению движения за Свободную Информацию. Ранние проявления этой тенденции можно увидеть уже сейчас, в таких проектах, как Wikipedia, лицензии Creative Commons, или в программистских проектах типа Greasemonkey(дает пользователям возможность определять, как именно будут отображаться данные на их компьютерах).

Конец цикла разработки ПО

Одной из главных характеристик современных интернет-приложений является то, что они распространяются в виде сервиса, а не товара. Это, в свою очередь, ведет к фундаментальным изменениям в бизнес-моделях компаний-разработчиков.

Компания должна уметь управлять процессами. Искусству разработки приложений должно сопутствовать умение организовать ежедневные операции для поддержки работы этих приложений. Разрыв между софтом-артефактом и софтом-сервисом так велик, что уже сейчас нельзя написать хороший продукт и забыть о нем — его нужно поддерживать ежедневно. Google каждый день прочесывает веб, чтобы обновлять свои индексы, отсекая поисковый спам. Google должен каждый день обслуживать сотни миллионов запросов, поставляя пользователю не только качественные результаты поиска, но и контекстную рекламу. И неслучайно информация о системном администрировании, обслуживании сетей, балансировке нагрузки и т. п. охраняется Google, пожалуй, даже лучше, чем сами поисковые алгоритмы. Google научился автоматизировать упомянутые процессы, а это — ключевая часть его ценового преимущества перед конкурентами.

Также не случайно, что скриптовые языки — Perl, Python, PHP, а теперь еще и Ruby — играют в жизни компаний Веба 2.0 столь важную роль. Первый вебмастер Sun Microsystems Хасан Шрёдер (Hassan Schroeder) как-то назвал Perl «скотчем интернета».

Скриптовые языки (презираемые программистами эры софтверных артефактов) — это естественный выбор для системных и сетевых администраторов, поскольку разработчики создают динамические системы, требующие постоянного изменения.

Пользователей нужно воспринимать как соразработчиков — как, например, принято при разработке открытого софта (даже если само ПО вряд ли будет выпущено под открытой лицензией). Максима открытого софта — «выпускай релизы раньше и чаще» — теперь формулируется еще жестче: «бесконечная бета-версия». Программы обновляются ежемесячно, еженедельно и даже ежедневно.

Не случайно на логотипах таких проектов, как Gmail, Google Maps, Flickr, del.icio.us и т. п., словечко «beta» может висеть годами.

Отслеживание поведения пользователей в реальном времени позволяет видеть, какие новые свойства используются и как они используются — и это еще одна ключевая составляющая успеха технологии. Веб-разработчик одного из раскрученных сетевых сервисов отмечает: «мы добавляем два-три новых свойства в разные части сайта каждый день, и если пользователям они не нравятся — мы отказываемся от этих нововведений. Если нравятся — внедряем на всем сайте».

Кэл Хендерсон (Cal Henderson), главный разработчик Flickr, недавно рассказал, что новый билд Flickr появляется каждые полчаса. Это совершенно другая модель разработки! И хотя пока не все веб-приложения разрабатываются с такой экстремальной скоростью, почти у всех цикл разработки радикально отличается от всего, что было в эпоху ПК или клиент-серверов. По этой причине редакторы Zdnet даже пришли к выводу, что Microsoft не удастся победить Google: «бизнес-модель Microsoft построена на предположении, что пользователь обновляет свое компьютерное окружение раз в два или три года. Google же зависит от того, что новенького обнаружит пользователь в своем компьютерном окружении сегодня».

Несмотря на то что Microsoft уже продемонстрировала невероятную способность учиться и в конце концов превосходить своих конкурентов, нет сомнений, что конкуренция заставит Microsoft (и — шире — любую современную софтверную компанию) превратиться в компанию совершенно другого типа. Истинным компаниям Веба 2.0 будет проще, поскольку их не тянут назад старые подходы (а также сопутствующие бизнес-модели и источники прибыли).

Упрощенные модели программирования

Как только идея веб-сервисов стала au courant, в схватку вступили большие компании, выкатившие сложные наборы веб-сервисов, позволяющих разрабатывать надежные среды программирования для распределенных приложений.

Успех веба во многом обязан тому, что большая часть теоретических построений, посвященных гипертексту, была отброшена в пользу простых прагматичных решений, которые и послужили основой идеальной конструкции. RSS стал, возможно, единственным широко распространенным

веб-сервисом именно потому, что он прост. А сложные корпоративные наборы все еще ждут своего часа.

Amazon предоставляет два типа веб-сервисов. Первый не отступает от формализма SOAP (Simple Object Access Protocol), тогда как второй просто осуществляет передачу XML через HTTP с помощью упрощенного подхода, известного как REST (Representational State Transfer). Веб-сервисы первого типа используются для B2B-транзакций (например, между Amazon и розничными партнерами), но 95 процентов всех операций проводится с помощью REST.

То же стремление к простоте наблюдается и у других «настоящих» веб-компаний. Возьмем Google Maps. Простой AJAX-интерфейс был быстро «разобран» хакерами, которые затем сумели использовать поставляемые данные для организации новых сервисов.

Картографические веб-сервисы были доступны и раньше: от GIS-вендоров (ESRI, например) и таких компаний, как MapQuest и Microsoft MapPoint. Однако Google Maps завоевал мир, благодаря своей простоте. И если экспериментирование с данными веб-сервисов от «настоящих» вендоров требовало заключения контракта, то Google Maps был спроектирован так, что данные можно было сразу использовать в своих целях — и хакеры очень скоро научились это делать.

Отсюда можно вынести несколько важных уроков:

  • Поддерживайте упрощенные модели программирования и вы получите свободно-связанных партнеров. Проблема корпоративных веб-сервисов в том, что они предполагают жестко оговоренное партнерство. Во многих случаях это оправданно, но зачастую самые интересные приложения могут быть построены на весьма хрупкой основе.
  • Думайте о синдикации, а не о координации. Простые веб-сервисы — как RSS или сервисы на базе REST — занимаются синдикацией данных, не пытаясь контролировать, что происходит с информацией на другом конце цепочки. Идея сквозной передачи данных является одной из базовых идей самого интернета.
  • Проектируйте с учетом возможных переделок и улучшений. Системы, подобные вебу, RSS и AJAX, сходны тем, что особых помех для их повторного использования не существует. Большая часть полезного софта находится в открытых исходниках, а если и нет, то имеется не так уж много способов защитить свою интеллектуальную собственность. Стандартная браузерная функция «посмотреть исходник» позволяет любому человеку скопировать любую веб-страницу. RSS был спроектирован для того, чтобы пользователь мог читать контент тогда, когда это удобно ему, а не поставщику информации. Самые успешные веб-сервисы — это, как правило, такие службы, которые могут быть изменены неожиданным для их создателей образом (some rights reserved).

Собираем по-новому

Упрощенные бизнес-модели — это естественный спутник упрощенного программирования и свободного партнерства. В Вебе 2.0 повторное использование не осуждается. Новые сервисы, такие как housingmaps.com, являются простым совмещением двух существующих служб. У Housingmaps.com нет бизнес-модели (пока), но множество небольших сервисов живет за счет Google AdSense (или, возможно, амазоновских программ, или — и тех и других).

Эти примеры иллюстрируют еще один ключевой принцип Веба 2.0 — то, что мы называем «сборка по-новому». Когда вокруг столько дешевых компонентов, вы можете создавать нечто ценное, просто собирая из них неожиданные или эффективные комбинации. Точно так же, как ПК-революция дала «путевку в жизнь» компаниям, собирающим компьютеры из обычной комплектухи, Веб 2.0 предоставляет возможности компаниям, собирающим свои приложения из чужих компонентов.

Софт работает поверх устройств

Еще одна особенность Веба 2.0, которая заслуживает упоминания, это то, что теперь веб не привязан к платформе ПК. Перед уходом из Microsoft разработчик Дэйв Стац (Dave Stutz) дал своему бывшему работодателю совет: «обеспечить высокую прибыль способно программное обеспечение, работающее поверх устройств».

Конечно, так можно охарактеризовать практически все веб-приложения. В конце концов, простейшее приложение требует для своей работы по крайней мере два компьютера: один — для хостинга сервера, второй — для браузера. И как мы уже обсуждали, развитие веба как платформы расширяет эту идею до синтетических приложений, составленных из сервисов, которые предоставляются множеством компьютеров.

Но — с Вебом 2.0 такое случается частенько — «2.0» означает не что-то совершенно новое, а развитие и углубление существующих концепций. И фраза Стаца поясняет, как нужно проектировать приложения для новой платформы.

В настоящий момент лучшим примером нового подхода является iTunes. Это приложение без проблем соединяет карманное устройство с грандиозной веб-базой, оставляя ПК роль локального кэш-сервера и контрольной станции. Попытки донести веб-контент до мобильных устройств, разумеется, предпринимались и раньше, но связка iPod/iTunes является одним из первых приложений, соединяющих в единую цепочку сразу несколько устройств. Другой хороший пример подобного подхода — цифровой видеомагнитофон TiVo.

iTunes и TiVo также демонстрируют другие ключевые принципы Веба 2.0. Они не являются веб-приложениями сами по себе, однако используют мощь веб-платформы, превращая веб в незаметную, практически невидимую часть своей инфраструктуры. TiVo и iTunes — сервисы, а не коробочные приложения (хотя в случае с iTunes это не совсем верно — программа вполне может использоваться и как коробочный софт, для управления пользовательскими данными). Более того, и TiVo, и iTunes пытаются использовать коллективный разум, хотя в обоих случаях эти эксперименты натыкаются на сопротивление со стороны лобби владельцев интеллектуальной собственности. В iTunes архитектура взаимодействия пользователей довольно ограничена, хотя последние нововведения в области поддержки подкастинга несколько изменили положение дел в лучшую сторону.

Все это одна из областей Веба 2.0, в которой мы ожидаем тем больших изменений, чем больше устройств подключено. Какие приложения появятся, когда все наши телефоны и автомобили будут не только потребителями информации, но и ее поставщиками? Мониторинг пробок в реальном времени, флэш-мобы, любительская журналистика — вот только несколько первых ласточек, намекающих нам на возможности новой платформы.

Богатые пользовательские интерфейсы

Еще со времен браузера Viola (1992) у всех на устах слово «апплеты» и прочие способы доставки активного контента через браузер. Появление в 1995 году Java тоже сопровождалось упоминанием апплетов. JavaScript — а затем и DHTML — были представлены публике как простые пути для выполнения приложений на стороне клиента и обогащения пользовательских интерфейсов. Несколько лет спустя Macromedia использовала термин Rich Internet Applications (впрочем, им не гнушалась и Laszlo Systems — разработчик флэш-решений в открытых исходниках), чтобы подчеркнуть возможности Flash не только в области доставки мультимедиа-контента, но и как основы для построения GUI-интерфейсов.

Однако потенциал веба для постройки полномасштабных приложений не принимали всерьез до появления Gmail, за которым последовал Google Maps. В обоих случаях веб-приложения предлагали богатые пользовательские интерфейсы и почти неотличимую от ПК-приложений интерактивность. В одном из своих эссе Джесс Джеймс Гаррет из

веб-студии Adaptive Path «окрестил» использованные для этой цели технологии AJAX. Он писал:

Сам AJAX не является технологией. Это несколько вполне самостоятельных технологий, работающих вместе. AJAX включает в себя:

  • обработку стандартов XHTML и CSS;
  • динамическое отображение и интерактивное использование DOM (Document Object Model);
  • взаимный обмен и управление данными посредством XML и XSLT;
  • асинхронное извлечение данных с помощью XMLHttpRequest;
  • и JavaScript, объединяющий все это вместе.

AJAX также является ключевым компонентом таких приложений, как Flickr, приложений от 37signals, Gmail и Orkut (Google). Мы вступаем в беспрецедентный период нововведений в пользовательских интерфейсах, раз уж разработчики, наконец, научились создавать веб-приложения, ничем не уступающие в этом аспекте ПК-приложениям.

Интересно, что многие из новых возможностей, на самом деле, не являются новыми. Еще в конце 90-х гг. и Microsoft, и Netscape понимали, что это достижимо, но их битва привела к несовместимости стандартов. И только после того, как Microsoft выиграла «браузерные войны» и у нас де-факто остался один-единственный стандарт браузера, создание таких

приложений стало реальным. Firefox, конечно, возродил конкуренцию на рынке браузеров, но пока что мы не видим разрушительной войны стандартов, которая задержала наше развитие в конце XX века.

В ближайшие несколько лет появится множество новых веб-приложений — как абсолютно новых, так и переделок старых ПК-приложений под веб. Любая смена платформы создает новые возможности для захвата лидирующего положения на рынке, даже если этот рынок казался полностью устоявшимся.

Gmail уже продемонстрировал несколько интересных нововведений в области электронной почты, комбинируя сильные стороны веба (доступность из любой точки, нетривиальные возможности работы с данными, возможность поиска) с пользовательскими интерфейсами, сравнимыми по удобству с ПК-интерфейсами. Между тем почтовые клиенты на платформе ПК усовершенствуются в другом направлении, добавляя в свой интерфейс, например, возможности инстант-мессенджера и датчика онлайнового присутствия. Как далеко зайдут интегрированные клиенты, объединяя лучшее, что есть в e-mail, IM и мобильной телефонии (используя VoIP, чтобы добавить голосовые возможности)? Гонка началась.

Легко увидеть, как Веб 2.0 меняет привычные «адресные книги». Адресная книга для Веба 2.0 использует локальную базу контактов на ПК или телефоне для запоминания тех контактов, которые вы специально отметили для сохранения. Между тем Gmail-подобный веб-агент помнит все сообщения, полученные или отосланные, все адреса, все телефоны и на основе эвристики социальных сетей пытается решить, какие именно альтернативы вам предложить, когда в локальной базе нужного контакта нет. При отсутствии нужного ответа система может задействовать социальную сеть большего масштаба.

Текстовый процессор для Веба 2.0 будет поддерживать совместное редактирование в стиле Wiki. Но кроме этого он же предоставляет широкие возможности форматирования, которое мы привыкли ожидать от ПК-приложений. Writely — хороший пример подобного приложения, хотя мэйнстримом такой подход пока не назовешь.

Но революция Веб 2.0 не ограничивается ПК-приложениями. Salesforce.com демонстрирует, как использовать веб для распространения ПО в качестве корпоративного сервиса (CRM).

Благодаря новым игрокам потенциал Веба 2.0 будет раскрыт полностью. Но успеха добьются те компании, которые не только научатся строить новые интерфейсы, но и (благодаря архитектуре взаимодействия) получат в свое распоряжение совместно подготовленные данные.

Что должны уметь компании в Вебе 2.0

Мы отметили некоторые принципиальные особенности Веба 2.0, но каждый приведенный пример иллюстрировал лишь одни положения, тогда как другие при этом упускались. Давайте попробуем суммировать самые важные моменты для компаний Веб 2.0:

  • недорого масштабируемые сервисы, а не коробочное ПО;
  • контроль над уникальными, сложными для воссоздания источниками данных, которые могут быть обогащены за счет пользователей;
  • отношение к пользователям как к соразработчикам;
  • привлечение коллективного разума;
  • охват «длинного хвоста» за счет самообслуживания пользователей;
  • софт должен работать поверх устройств;
  • упрощенные модели разработки пользовательских интерфейсов и упрощенные бизнес-модели.

И когда вы в следующий раз услышите про Веб 2.0 — сверьтесь с этим списком. Чем больше пунктов выполнено, тем больше компания соответствует концепции Веба 2.0. Впрочем, не стоит забывать, что истинное мастерство в одной из областей может оказаться выгоднее, чем небольшое умение в каждой из семи.

Подходы к проектированию Веба 2.0

Длинный хвост. Маленькие сайты производят большую часть контента; узкие ниши потребляют большую часть приложений. Совет: поощряйте самостоятельность пользователей и обеспечивайте алгоритмическое управление данными со своей стороны — это позволит охватить веб целиком, не только центр, но и края, не только голову, но и хвост.

Данные — это следующий Intel Inside. Приложения все сильнее зависят от данных. Совет: для получения конкурентного преимущества отыщите уникальный, трудный для воссоздания источник данных.

Ценность, принесенная пользователями. Ключ к успешной конкуренции на рынке интернет-приложений — обогащение собственных данных силами пользователей. Совет: не ограничивайте свою «архитектуру взаимодействия» разработкой софта. Явно и неявно вовлекайте пользователей в процесс улучшения вашего приложения.

Сетевые эффекты по умолчанию. Немного найдется пользователей, которые по собственной инициативе станут вам помогать. Совет: сделайте так, чтобы обогащение ваших данных было побочным эффектом использования приложения.

Some Rights Reserved. Защита интеллектуальной собственности ограничивает повторное использование и препятствует экспериментам. Совет: если бенефиты обеспечиваются совместным использованием, обеспечьте настолько слабую защиту вашей ИС, насколько это возможно. Проектируйте с учетом «улучшабельности» и «переделываемости».

Бесконечная бета. Когда устройства и программы подключены к Интернету, приложения перестают быть артефактами и превращаются в сервисы. Совет: не пытайтесь упаковать новые свойства в

релиз, вместо этого добавляйте их по мере готовности в текущую версию. Сделайте из своих пользователей тестеров, способных откликнуться в реальном времени, и следите за их реакцией.

Кооперация вместо контроля. Приложения Веба 2.0 построены как сеть сервисов, работающих совместно. Совет: открывайте интерфейсы веб-сервисов, обеспечьте синдикацию контента и используйте чужие веб-сервисы, если это нужно. Используйте упрощенные модели для программирования для построения свободно-связанных систем.

Программы работают поверх устройств. ПК больше не являются единственным устройством, на котором могут выполняться интернет-приложения, а приложение, ограниченное одним устройством, менее ценно, чем его универсальный конкурент. Совет: проектируйте приложение так, чтобы оно могло работать поверх карманных устройств, ПК и интернет-серверов.

Автор : Тим О’Рейли

Перевод Натальи Казаковой


Источник: www.computerra.ru

Версия для печати
Вернуться к разделу "Интернет технологии, Web 2.0, интранет, системы управление контентом"
Обсудить статью на форуме.



Поиск


Выбор системы управления контентом сайта
Сегодня на рынке присутствует более тысячи различных систем управления контентом и еще большее количество компаний и частных лиц предлагают создание сайтов на их основе. В статье рассматривается круг...
подробнее..
Все об Интернете : Что такое Веб 2.0
Крах доткомов осенью 2001 года стал для веба поворотным пунктом. Многие решили, что феномен веба был слишком раздут, хотя, на самом деле, «мыльные пузыри» и, как результат этого, падение акций —...
подробнее..
Результаты использования Web 2.0 для нужд бизнеса
Последние несколько недель принесли целую серию интересных новых данных о прошлом, настоящем и будущем концепций и приложений Web 2.0 применительно к бизнесу. Большинство известных обозревателей...
подробнее..
Доигрались в ящик
Успешный бизнес невозможен без электронной почты, однако сотни компаний время от времени оказываются без связи. Причины нередко кроются в непродуманном выборе системными администраторами главной...
подробнее..
 
Rambler's Top100 Powered by Flede Valid HTML 4.0 Transitional
Реклама: