К примеру, многие статьи “Википедии” о британской аристократии были написаны пользователем с ником Лорд Эмсворт. Они были очень познавательными и во всех тонкостях описывали систему дворянских титулов (пэрства), в результате чего некоторые были выбраны “Статьями дня”, а Лорд Эмсворт получил права администратора “Википедии”. Оказалось, что под этим ником, взятым из романов П. Г. Вудхауса, писал шестнадцатилетний школьник из города Саут-Брансуик, штат Нью-Джерси. В “Википедии” никто не может узнать о твоем незнатном происхождении110.
В дополнение к уже написанному стоит упомянуть о том особом удовольствии, которое мы испытываем, когда лично помогаем создавать информационный ресурс, а не просто пассивно им пользуемся. “Важно сделать так, чтобы люди не просто читали какие-то источники, но и могли с ними взаимодействовать. Это можно считать стоящей целью”111, — отмечает профессор Гарвардского университета Джонатан Цитрейн. “Википедия”, которую мы создаем совместными усилиями, намного ценнее, чем “Википедия”, которую нам бы подали на блюдечке. Коллективное производство вовлекает всех участников в процесс.
Джимми Уэйлс любил повторять, что цель создания “Википедии” проста и заманчива: “Представьте себе мир, в котором каждый житель Земли имеет свободный доступ ко всем знаниям, накопленным человечеством. Вот чем мы занимаемся”. Глобальная и достойная цель. Однако его слова не в полной мере отражали происходящее, ведь “Википедия” давала людям намного больше, чем бесплатный доступ к информации. В ней каждый мог применить свои знания и поделиться ими со всем миром — никогда прежде люди не имели таких возможностей. Со временем Уэйлс это понял: “«Википедия» позволяет людям не только получить доступ к знаниям других людей, но и делиться своими собственными, — говорил он. — Когда вы помогаете создавать какой-то продукт, вы становитесь и владельцем, и частью этого продукта. Так получаешь намного больше удовлетворения, чем если бы ты пришел на все готовое”112.
“Википедия” позволила человечеству сделать еще один шаг навстречу идеям Вэнивара Буша, описанным в его эссе “Как мы можем мыслить” 1945 года: “Будут созданы принципиально новые энциклопедии, пронизанные сетью ассоциативных связей. Мы сможем вносить их в мемекс и там расширять и дополнять”. Буш также обращался к работам Ады Лавлейс, которая утверждала, что в будущем машины будут выполнять практически любые задачи, но думать самостоятельно не смогут. Создатели “Википедии” не планировали создавать “мыслящую” машину. Энциклопедия скорее стала великолепным примером симбиоза человека и машины, где человеческие знания и вычислительная мощность компьютеров сплелись в единое целое подобно нитям в полотне. Когда в 20іі году у Джимми Уэйлса и его новой жены родилась дочь, они назвали ее Адой в честь леди Лавлейс113.
Ларри Пейдж, Сергей Брин и поисковые системы
В январе 1994 года Джастин Холл запустил свой эксцентричный веб-сайт. Тогда в мире насчитывалось всего семьсот сайтов, к концу того года их было уже 10 тысяч, а еще через год — 100 тысяч. Когда стало возможным подключаться к Всемирной паутине с любого персонального компьютера, перед нами открылись невероятные возможности: любой человек мог получить любой веб-контент и поделиться своим контентом со всеми желающими. Однако этот новый, только зарождавшийся мир мог оказаться бесполезным, ведь информацию в нем нужно было как-то искать. Человечество нуждалось в простом инструменте для поиска сетевого контента с помощью компьютеров — в интерфейсе “человек — машина — Сеть”.
Первыми попытками создать нечто подобное были каталоги веб-страниц, составленные вручную. Среди них встречались довольно специфичные и несерьезные списки, как, например, “Ссылки Джастина из подполья” Холла или “Бесполезные сайты” Пола Филлипса. Другие были более основательными и полными, например “Виртуальная библиотека Всемирной сети” Тима Бернерса-Ли, страничка NCSA “Что нового?” и “Проводник по Глобальной сети” Тима О'Райли. Где-то между этими двумя лагерями располагался сайт, созданный двумя аспирантами из Стэнфорда, которые сделали качественный шаг вперед в этой области. Их страница была открыта в начале 1994 года и пережила несколько реинкарнаций, одна из которых называлась “Путеводитель Джерри и Дэвида по Всемирной сети”.
Джерри Янг и Дэвид Фило должны были дописывать свои докторские диссертации, но вместо этого играли в спортивные симуляторы, где игроки становились владельцами баскетбольного клуба и должны были собрать хорошую команду. “Мы занимались чем угодно, лишь бы не писать диссертации”114, — вспоминает Янг. Он искал способы пробраться на серверы игры, чтобы получить статистику других игроков. В то время серверы еще работали с протоколами FTP и Gopher, которые служили для передачи информации в Интернете и были популярны до появления Всемирной паутины.
Когда вышел браузер Mosaic, Янг заинтересовался Всемирной сетью и вместе с Фило начал вручную составлять каталог веб-сайтов, который постоянно рос. Приятели объединяли ссылки в категории, такие как бизнес, образование, развлечения, правительство. Каждый раздел имел десятки подкатегорий. В конце 1994 года они переименовали свой каталог в Yahoo!.
Было очевидно, что вручную обновлять списки сайтов невозможно, ведь каждый год количество веб-страниц увеличивалось в десятки раз. К счастью, тогда уже существовал способ получать информацию с FTP и Gopher-ресурсов. Речь шла о поисковых роботах, которые обходили интернет-серверы, собирали данные и индексировали их. Два самых известных робота-сборщика носили имена влюбленной парочки из комиксов: Арчи (для FTP) и Вероника (для Gopher). В 1994 году многие предприимчивые инженеры писали свои поисковые машины и роботов. Среди них можно упомянуть, например, WWW Wanderer Мэтью Грея из Массачусетского технологического института, WebCrawler Брайана Пинкертона из Университета Вашингтона, AltaVista Луи Монье из компании Digital Equipment Corporation, Lycos Майкла Молдина из Университета Карнеги — Меллон, OpenText, созданный программистами из канадского Университета Ватерлоо, и Excite, разработанный шестью друзьями из Стэнфорда. Эти поисковые системы использовали роботов, называемых ботами, которые кочевали по гиперссылкам всей Сети подобно тому, как заядлые пьяницы заглядывают в каждый паб на своем пути. Роботы собирали URL-адреса и информацию о каждом сайте, затем данные маркировались, индексировались и помещались в базу данных, доступ к которой имели поисковые серверы.
(adsbygoogle = window.adsbygoogle || []).push({});