Даже если Glass не станет массовым продуктом (в чём уже есть некоторые сомнения), у очков есть все шансы привлечь армию приверженцев, которые будут выдумывать им всё новые и новые применения и не снимать их даже по ночам.
К оглавлению
Нанометровая драма: почему AMD жалуется на Закон Мура и когда ждать следующий Большой Микропроцессорный Взрыв?
Евгений Золотов
Опубликовано 10 апреля 2013
Сомневаться в Законе Мура — подмеченной полвека назад сооснователем Intel зависимости, постулирующей удвоение количества элементов на микросхемах каждые год-два (в оригинале был год, но позже Мур скорректировал цифру), — свойственно аналитикам, журналистам и прочим, к микроэлектронике имеющим отношение косвенное. Те, чья судьба непосредственно зависит от справедливости этой формулы, предпочитают вспоминать о ней как можно реже: отчасти потому что им некогда, отчасти — по причине крепнущего с годами страха, что следующий виток миниатюризации поставит их перед физическим барьером. Вот почему так непривычно было услышать о Законе Мура (далее, для краткости, — ЗМ) от человека, занимающего заметный пост в микроэлектронной индустрии. Джон Густафсон, главный архитектор AMD по графической части (а ещё недавно высокий чин в Intel), заявил на днях, что в погоне за всё более крупными микросхемами мы вышли на финишную прямую.
Сказать честно, от регулярных предсказаний конца действия ЗМ есть некоторая несомненная польза. В ходе возникающих после этого дискуссий развенчиваются мифы и обозначаются перспективы. Последний раз шуму наделал американский физик Мичио Каку, год назад посуливший, что уже в течение следующих десяти лет термодинамика и квантовая физика сделают невозможной дальнейшую миниатюризацию электронных схем (см. «Закон Мура: суров, но скоро отмена»). Тогда, помнится, разговор зашёл о технологиях, которые смогут принять эстафету у кремния, — квантовых вычислениях, оптических, молекулярных. Никто, естественно, никаких гарантий тут дать не в состоянии. Зато одновременно прояснилось, что число деталей в микропроцессоре стало чисто маркетинговым, рекламным параметром, не имеющим практического смысла. Потому что хоть производителям и удаётся более-менее выдерживать темп удвоения плотности, фактическая производительность давно уже не растёт прямо пропорционально числу транзисторов (хотя бы потому, что четыре ядра не всегда работают вдвое быстрее двух). Таким образом, уже сегодня полезней фокусировать внимание, скажем, на энергопотреблении системы, нежели на плотности элементов или тактовой частоте.
Оригинальная формулировка Закона Мура из статьи 1965 года звучит так: сложность для самых дешёвых компонентов увеличивается вдвое каждый год. Кстати, обратите внимание на график (заимствованный оттуда же): точки экстремума для годичных кривых — это и есть точки оптимума, о которых говорит Густафсон
С Густафсоном получилось ещё интересней. В интервью The Inquirer он развенчивает миф об оригинальной формулировке ЗМ. По его словам, смысл утверждения Гордона Мура сводился к тому, что удваивается только то число транзисторов, которое наиболее экономически целесообразно произвести. Что, согласитесь, здорово отличается от банального «вдвое каждые X лет», придуманного ради простоты позже. Предположив, что Густафсон прав, можно сделать вместе с ним и следующий шаг: отыскать на графике микроэлектронной эволюции точку оптимума, в которой плотность элементов будет не слишком маленькой (тогда каждый транзистор обойдётся чересчур дорого для покупателей), но и не слишком большой (когда каждый транзистор будет неразумно дорог уже для производителей). Нащупав эту точку, нужно постараться двигаться с ней.
Придерживаясь оптимальной точки, конструктор микропроцессора не только гарантирует себе наивысшую скорость усложнения чипов, но и избегает участия в бессмысленно дорогой «гонке плотностей» (производительность-то всё равно увеличивается в лучшем случае на 10 процентов за год), а покупатель получает наивысшую производительность за наименьшую цену. И это как раз та дорожка, по которой пытается двигаться AMD. Да, Intel уже почти преодолела двадцатинанометровый порог и в следующем году планирует начать производство 14 нм чипов, но AMD мечтает пока только о 20 нм — вероятно, той самой точке оптимума в текущий момент. Гнаться за миниатюризацией ради миниатюризации? Пусть этим занимается Intel.
Но из уточнений Густафсона следует ещё один интересный вывод. По его словам, переход на 20 нм масштаб занял больше времени, чем ожидалось. Почему? Классический ответ на этот вопрос предполагает отсылку к техническим аспектам, но что если дело не в технике, а в той же экономической целесообразности? Вспомните, что творится с (пока ещё) главным потребителем суперсовременных микропроцессоров — персональным компьютером. PC продаются, но рост продаж отсутствует либо отрицателен, причём без особых на то причин. Планшетки, как ни крути, персоналку пока заменить не в состоянии. Что если у слабеющих продаж PC и трудностей миниатюризации один корень?
Исследователи из MIT недавно провели оценку предсказательной точности разных законов в контексте технического прогресса — и подтвердили, что Закон Мура остаётся одним из лучших. Другой близкий к нему — Закон Райта, сформулированный в 30-х годах Теодором Райтом: рост производства сопровождается повышением эффективности производства
Персоналка давно стала достаточно мощным инструментом, чтобы в реальном времени решать большинство задач, которые только может поставить перед ней среднестатистический пользователь. Да можно ли вообще назвать хоть одну бытовую проблему, для которой производительности современной PC не хватит? Мы незаметно перешагнули черту, за которой возможности персонального компьютера стали избыточными — и теперь, не тратясь на апгрейд и не испытывая особенных неудобств, можно проработать на одной машине и пятилетку, и больше: неслыханное дело ещё пятнадцать лет назад, когда конфигурация десктопа могла устареть технически всего за год! Что если средний пользователь прочувствовал эту избыточность и теперь покупает новый компьютер только на замену сломавшемуся старому?
Идея не новая, но от неё уже рукой подать до трудностей с миниатюризацией микропроцессоров. Количество элементов на чипе? Не нужно быть экспертом, чтобы понять, в каком случае отдача от улучшения такого — чисто рекламного — показателя выше: когда несколько лет подряд продажи персоналок остаются на месте либо слабеют или когда они растут на 15 процентов в год и более (как было со второй половины 90-х до недавнего времени).
Так что Закон Мура ещё действует. Но, прыгнув неоправданно высоко в погоне за нанометрами, обзаведясь слишком дорогими фабриками, микропроцессорная индустрия должна сделать передышку и подтянуть производительность. Что, очевидно, мы и наблюдаем. Постепенно накапливая ставший привычным десятипроцентный инкремент производительности за год либо скачком, микропроцессоры должны выйти на уровень, качественно отличающийся от достигнутого сегодня. Случится прорыв благодаря экстремальной многоядерности (кау у Intel, работающей над Xeon Phi/Knights Corner) или гетерогенному компьютингу (как у AMD, подтягивающей CPU за счёт GPU), не так важно. Важнее, что под качественно новые мощности обязательно найдутся новые задачи — и появятся деньги, стимул, причина сделать следующий рывок по шкале плотностей. К 10 нанометрам, а может быть, и дальше, кто знает?
В статье использованы иллюстрации Electronics Magazine, MIT, Intel
К оглавлению
Картография и «обратная разработка»: в США и Европе досконально изучат человеческий мозг
Юрий Ильин
Опубликовано 10 апреля 2013
Около 86 миллиардов нейронов. Около ста триллионов синапсов. Средняя масса — 1,5 кг, средний объём — 1130 см3. Таковы характеристики головного мозга взрослого человека. Сами по себе эти значения неспециалистам говорят немного. Однако даже неспециалист легко представит, какие ресурсы должны быть затрачены для того, чтобы составить полную карту головного мозга человека со всеми его многочисленными структурами — и установить их назначение.
В начале февраля научный мегапроект, нацеленный на «понимание» головного мозга человека, анонсировали европейские исследователи. Затем в начале апреля правительство США объявило о готовности выделить 100 млн долларов на сходный (по существу) проект уже в Америке. Понятно, что для предприятия таких масштабов 100 млн — мягко говоря, негусто: по некоторым оценкам, на американский проект за ближайшее десятилетие уйдёт более трёх миллиардов долларов. Предварительная оценка европейского проекта несколько скромнее — 1,19 млрд евро. Впрочем, учитывая, что бюджет подобных начинаний со временем может начать разрастаться, не исключено, что в итоге будут затрачены в разы большие суммы, что в Европе, что в США.