Как почти всегда бывает, мой излюбленный способ переформулировки общего вопроса в конкретный сработал. Мы довольно быстро нашли ответ, который до сих пор выдерживает критику многих экспертных групп. Дело в том, что услуги хороших разработчиков аппаратных средств и программистов обходятся одинаково дорого. Главная разница в затратах при реализации этих двух типов проектов обусловлена расходами на создание прототипа и его новых версий, и особенно на исправление ошибок. Любая разработка неизменно предполагает определенное количество проб и ошибок, но при работе над аппаратными средствами на их исправление расходуется значительно больше ресурсов, чем при написании программ. Если новое «железо» не функционирует как требуется, это зачастую означает не один месяц дорогостоящих работ, связанных с изменением конструкции. А если дает сбой новое программное обеспечение, его автор исправляет проблему, вводя в файл другие команды, выполняет перекомпиляцию программы и через пару дней, а то и спустя несколько минут, опять проводит тестирование. Кроме того, программное обеспечение можно без особого труда исправлять, совершенствовать и модернизировать даже после того, как оно отправлено заказчику.
Таким образом, главное преимущество софта обусловлено быстротой цикла его создания – процесса перехода от концепции к прототипу и дальнейшего периода обнаружения и исправления ошибок. Если инженеры-разработчики никогда бы не совершали ошибок, затраты на создание сложного аппаратного средства и сложной компьютерной программы были бы вполне сопоставимыми. Но, поскольку людям свойственно ошибаться, наиболее предпочтительной стала среда разработки программного обеспечения (если только для этого не требуются новые быстродействующие аппаратные средства).
Причины деконструкции компьютерной отрасли
В том же 1996 году, вскоре после моей беседы с Жаном-Бернаром Леви в Париже, председатель совета директоров Intel Энди Гроув опубликовал свою провидческую книгу «Выживают только параноики»[20]. Опираясь на огромный опыт в области бизнеса и технологий, автор весьма убедительно рассказал в ней о «точках перегиба», способных в корне изменять и разрушать целые отрасли промышленности. В частности, Гроув описал точки, превратившие компьютерную индустрию из вертикальной структуры в горизонтальную.
В прежней вертикальной структуре каждый производитель компьютерной техники сам выпускал процессоры, память, жесткие диски, клавиатуры и мониторы и сам разрабатывал базовое и прикладное программное обеспечение. Покупатель подписывал с производителем контракт и приобретал все только у него. Нельзя было установить дисковод HP на компьютер DEC. А в новой горизонтальной структуре, напротив, каждый из этих видов деятельности стал отдельной самостоятельной отраслью. Intel производила процессоры, другие компании – память, третьи – жесткие диски; Microsoft предлагала системное программное обеспечение. То есть компьютеры собирались из разных компонентов, выпускаемых конкурирующими производителями.
В связи с этим Гроув сделал абсолютно четкий и правильный вывод, что «изменились основы не только компьютерной отрасли, но и конкуренции»2. Но мне как стратегу хотелось копнуть в этом вопросе глубже. Какова основополагающая причина деконструкции компьютерной индустрии, почему ее структура стала горизонтальной? Энди Гроув пишет: «Даже сейчас, когда прошло много времени, я не могу четко сказать, где именно находится точка перегиба, в корне изменившая компьютерную отрасль. Может быть, в начале 1980-х, когда появились первые персональные компьютеры? А может, во второй половине этого десятилетия, когда, словно грибы после дождя, стали распространяться сети, основанные на компьютерных технологиях? Трудно сказать»3.
Мне долго не давала покоя исходная причина деконструкции компьютерной отрасли. Но приблизительно через год в голове словно что-то щелкнуло. Это случилось, когда я интервьюировал технических управляющих своей компании-клиента, и один из них рассказал, что раньше работал системным инженером в IBM. Он был вынужден оттуда уйти, поскольку современная компьютерная отрасль все меньше нуждалась в специалистах этого профиля. Я, конечно, тут же спросил:
– А почему?
– Да потому что сейчас отдельные компоненты сами по себе умные.
И меня снова озарило.
Точка перегиба Энди Гроува возникла по вине оригинального продукта Intel – микропроцессора. Расчленение компьютерной индустрии на отдельные модули произошло в момент, когда каждый основной компонент компьютера начал включать в себя собственный микропроцессор – стал «умным», как выразился мой собеседник.
Во многих традиционных компьютерах и первых ПК почти все делал центральный процессор (ЦП) – сердце машины. Следя за нажатиями на клавиши, он считывал информацию с клавиатуры. Распознав нажатие, анализировал строку и столбец клавиши и определял букву или цифру, по которой щелкнул пользователь. Чтобы считывать данные с накопителя на магнитной ленте, ЦП постоянно контролировал скорость и натяжение ее катушек, останавливая и запуская привод по мере интерпретации поступающих данных и сохраняя их в памяти. При распечатке данных на лепестковом принтере ЦП управлял вращением шестеренки и отмерял тайминг каждого удара печатающего молоточка. Иногда для управления этими периферийными устройствами разработчики создавали специальные мини-ЦП, но их интеграция оставалась сложной и не поддающейся стандартизации, выполнение этой задачи само по себе требовало огромных затрат времени и усилий специалистов.
Все изменилось с появлением дешевых микропроцессоров. В современную клавиатуру встроен небольшой чип. Он распознает каждый удар по клавише и отправляет компьютеру простое стандартизированное сообщение вроде: «Нажата буква Х». Жесткий диск сегодня тоже настолько «умен», что центральному процессору не нужно знать, как он работает. Он просто посылает на него сообщение, например «Сектор 2032», и тот мгновенно возвращает данные в нужный сектор. Отдельные микропроцессоры управляют работой экранов, памяти, видеоадаптера, накопителей на магнитной ленте, USB-портов, модемов, игровых контроллеров, стримеров, резервных источников питания, принтеров, сканеров, контроллеров мыши – то есть практически всем, из чего состоит современный компьютер.
Появление «умных» компонентов, функционирующих в составе операционной системы, созданной по фактическому стандарту отрасли, сделало задачу интеграции систем до смешного простой. Навыки в этой области, которые IBM и DEC развивали и накапливали десятилетиями, стали не нужны. Поэтому собеседник и потерял работу.