В тридцатые годы, работая над докторской диссертацией, британский математик и компьютерный первопроходец Алан Тьюринг пришел к мысли о «машине предсказаний». Это был своего рода компьютер, который, пользуясь набором ясных и понятных правил, обрабатывал хранилище данных посредством некоторых, невыясненных пока, приемов и отвечал на вопросы, которые обычно требуют от человека интуитивного знания. Тьюринг хотел выяснить, насколько можно интуицию заменить изобретательностью. В целях чистоты своего мысленного эксперимента он постулировал, что у способности машины к обработке огромных массивов чисел нет пределов и отсутствует верхняя граница скорости вычислений, а также неограниченно количество данных, которые машина может принять во внимание. «Мы сейчас не говорим о том, какого мастерства это потребует, – писал Тьюринг, – и поэтому будем считать, что и у него тоже нет границ» [44]. Тьюринг, как всегда, оказался провидцем. Он был одним из немногих в то время ученых, понявших скрытую интеллектуальность алгоритмов и предвидевших, что раскрепостить этот интеллект можно будет за счет увеличения скорости вычислений. Компьютеры, как и базы данных, всегда будут иметь определенные ограничения, но уже в таких механизмах, как Watson, мы видим прообраз «машины предсказаний» Тьюринга. То, о чем он только мечтал, современные инженеры делают в железе и пластике. Изобретательность вытеснила интуицию.
Невероятная способность Watson оперировать с базами данных может найти практическое применение в диагностике онкологических и иных заболеваний. Кроме того, IBM прогнозирует использование подобных компьютеров в юриспруденции, финансах и образовании. Испытывают такие системы и разведывательные организации – Центральное разведывательное управление США (Central Intelligence Agency, CIA) и Агентство национальной безопасности США (National Security Agency, NSA). Если автомобиль Google без водителя продемонстрировал способность компьютера воспроизводить наши психомоторные навыки и даже превзойти человеческие возможности ориентировки в реальном мире, то Watson показывает умение компьютера подменить когнитивные навыки человека и превосходит наши способности ориентировки в мире символов и идей.
Однако воспроизведение результатов мышления – это отнюдь не само мышление. Как подчеркивал еще Тьюринг, «всегда найдется место для спонтанных суждений, которые не являются результатом сознательного использования разума» [45]. Разумными нас делает не способность извлекать факты из документов и находить статистические закономерности в потоке данных, а возможность придавать вещам смысл, вплетать знания, полученные из наблюдений и опыта, в богатое понимание мира, каковое мы можем приложить к решению любой задачи. Именно это эластичное качество ума, охватывающее осознанное знание, разум и вдохновение, позволяет человеческому существу мыслить концептуально, метафорически, критически, спекулятивно, остроумно, проявляя чудеса логики и воображения.
Эктор Левек, специалист по информационным технологиям и робототехнике из Университета Торонто (University of Toronto), приводит пример простого вопроса, легко находящего ответ у людей, но над которым компьютер может задуматься надолго.
Большой шар падает на стол и пробивает его, потому что он сделан из пенопласта.
Что сделано из пенопласта – большой шар или стол?
Мы даем правильный ответ без всяких усилий, потому что понимаем, что такое пенопласт, знаем, что случается, когда мы что-то бросаем на стол, как выглядит стол и что подразумевается под словом «большой». Мы мгновенно схватываем контекст ситуации и смысл слов, которыми она описана. Компьютер, лишенный всякого понимания реального мира, вынужден считать язык данного высказывания абсолютно двусмысленным. Он ограничен своими алгоритмами. «Сведение интеллекта к статистическому анализу больших наборов данных может привести нас, – говорит Левек, – к системам, впечатляющим публику своей результативностью, но являющихся, по сути, идиотами, проявляющими незаурядные способности в какой-то узкой сфере». Компьютеры могут великолепно играть в шахматы или в «Свою игру», безошибочно распознавать лица или выполнять другие, четко очерченные ментальные задания, но они совершенно безнадежны вне границ этих заданий [46]. Точность работы компьютеров удивительна, но это всего лишь симптом узости их восприятия.
Даже в том, что касается вопросов, требующих вероятностных ответов, компьютеры не всегда оказываются на высоте. Скорость и очевидная точность их вычислений могут маскировать неполноту и погрешности обрабатываемых данных, не говоря уже о возможном несовершенстве алгоритмов обработки. Любая большая база данных содержит, наряду с надежными корреляциями, массу ложных корреляций. Несложно впасть в заблуждение из-за случайного совпадения или превратной ассоциации [47]. Более того, когда какой-то конкретный набор данных является основанием для принятия важных решений, эти сведения и их анализ становятся объектом не всегда честных манипуляций. В поисках финансовых, политических или социальных выгод люди часто будут пытаться подправить систему. Как пояснил в своей знаменитой, напечатанной в 1976 году статье Дональд Кэмпбелл: «Чем в большей мере какой-либо количественный социальный показатель используется для принятия социально значимых решений, тем в большей степени он становится объектом коррупционного давления, и тем в большей степени будет он искажать картину социальных процессов, для отслеживания которых его предполагали использовать» [48].
Погрешности в данных и алгоритмах могут сделать профессионалов, да и нас, простых смертных, жертвами наиболее злокачественной формы пристрастного отношения к данным автоматизированных систем. «Угроза заключается в том, что мы позволим себе бездумно положиться на результаты анализа, несмотря на возможность обдумать и понять, что в этих результатах что-то пропущено, – предостерегают Виктор Майер-Шенбергер и Кеннет Цукер в своей книге “Большие данные”, вышедшей в 2013 году. – Или мы можем приписать истинность данным, которые этого не заслуживают» [49]. Особая форма риска, связанного с использованием алгоритмов, вычисляющих корреляции, обусловлена тем, что они работают с данными о прошлом, чтобы предсказать будущее. В большинстве случаев поведение в будущем совпадает с нашими ожиданиями, и алгоритм работает, опираясь на уровень вероятности. Однако в тех редких случаях, когда условия отклоняются от предписанного алгоритмом образца, он может выдать абсолютно неверный прогноз. Такие случаи уже не раз приводили к катастрофам компьютеризированных хеджевых фондов и брокерских фирм. При всех своих дарованиях компьютеры до сих пор демонстрируют пугающее отсутствие здравого смысла.
Чем больше мы предаемся, по выражению ученого из корпорации Microsoft Кейт Кроуфорд, «цифровому фундаментализму» [50], тем сильнее становится искушение обесценить таланты, недоступные компьютерной имитации. Мы так сильно доверяем программным продуктам, что не придаем значения человеческой способности использовать знания, полученные из реального опыта, способные привести к оригинальным творческим решениям. Как показывают некоторые непредвиденные последствия внедрения электронного ведения документации в медицине, шаблоны и формулы неизбежно ведут к упрощенчеству и очень быстро становятся смирительной рубашкой для клинического мышления. Начиная с шестидесятых годов вермонтский врач и ученый Лоуренс Уид был горячим и красноречивым поборником использования компьютеров в медицине, так как они, по его мнению, могли помочь врачам принимать адекватные и осознанные решения [51]. Уида называют даже отцом электронного ведения медицинской документации. Однако теперь даже он предупреждает: «Нынешнее бездумное использование статистических знаний в медицине систематически вытесняет индивидуализированное знание и данные, действительно необходимые для лечения больных» [52].
Еще глубже тревога Гэри Клейна, психолога, изучающего механизмы принятия решений человеком. «Принуждая врачей следовать строгому набору правил, доказательная медицина может затормозить научный прогресс, – пишет Клейн. – Если больницы и страховые компании будут обязаны вводить электронные записи под угрозой судебного преследования, если неблагоприятные исходы лечения станут увязывать с малейшими отклонениями от утвержденных методов, то врачи, соединяющие в своей практике опыт и склонность к исследованиям, перестанут творчески подходить к своему делу и утратят интерес к совершению открытий» [53].
Если мы не проявим разумную настороженность, то автоматизация умственного труда, исказив природу и цель интеллектуального поиска, может подорвать саму основу нашей культуры: стремление познать мир. Алгоритмы прогнозирования могут творить сверхъестественные чудеса в обнаружении корреляций, но они абсолютно слепы и глухи к причинам наблюдаемых признаков и явлений. Но ведь именно раскрытие причин – методичное распутывание проблем, связанных с механизмами того или иного процесса, – расширяет границы человеческого познания. Если мы дойдем до того, что будем считать автоматизированное вычисление вероятностей достаточным средством достижения наших профессиональных и общественных целей, то рискуем потерять или, в лучшем случае, ослабить наше стремление искать объяснения, находить неизведанные пути, ведущие к мудрости и чуду. Зачем все эти хлопоты, если компьютер готов выдать ответ через одну или две миллисекунды?