Хабраиндекс
319,12
11 октября 2012 в 08:35

Будущее техпроцесса или когда «умрет» закон Мура?



В связи с тем, что закон Мура выполняется уже на протяжении 50-и лет и тема того, сколько ему «еще осталось» обсуждается повсюду, в том числе и на Хабре хотелось бы поделиться мыслями и планами тех, кому данный закон придется утверждать и поддерживать, как минимум в ближайшие годы.

Ниже дается мой скромый перевод блога людей, отвечающих за архитектуру и прозводство в компании Intel: Марка Бора(Mark Bohr) и Санджея Натараджана(Sanjay Natarajan) по поводу того, как долго, с их точки зрения, будет развиваться техпроцесс в сторону уменьшения и какие технологии, с их точки зрения, помогут поддерживать прогресс в данном направлении.


В последнее время часто возникает вопрос: «Подходит ли к концу процесс уменьшения размеров транзисторов?» Поскольку никто не считает, что процесс совершенствования технологий может прекратиться совсем, более разумным будет вариант этого вопроса: «Становится ли технически или практически невозможным разработка и внедрение новых техпроцессов примерно каждые два года, как это предсказано законом Мура почти 50 лет назад?»
Перед тем, как ответить на данный вопрос, сначала заглянем в историю. Когда-то развитие технологий процесса производства полупроводников давалось значительно легче. Базовая архитектура МОП-транзисторов была фиксирована, и путь к разработке нового процесса был ясен и прост: уменьшить габариты, уменьшить вертикальный размер, уменьшить электрические поля и — вуаля – готов новый более быстрый и более энергоэффективный транзистор. Конечно, изобретения, типа точечных и halo(ореол) имплантаций, оксидов силицида и нитрида для затвора были необходимы для решения проблем на этом пути, но основная архитектура оставалась прежней на протяжении многих поколений. (Когда мы говорим про изобретения, давайте не будем забывать об уменьшении длины межсоединений, где предложены медные проводники и планаризация.)

Конец масштабирования?
Даже в период «расцвета» данных технологий, отраслевые эксперты предсказывали конец масштабирования. Утверждения экспертов, как «Оптическая литография достигнет своих пределов в диапазоне 0.75-0.50 мкм,» «Минимальные геометрии[транзисторов] будут достигнуты в диапазоне от 0,3 до 0,5 микрон», «рентгеновская литография понадобится при размерах менее 1 микрона,» «медные межсоединения никогда не будет работать», и «Масштабирование закончится примерно через 10 лет», были сделаны публично, и все кажутся странными спустя время.
Пожалуй, 130-нм технология была последней настоящей технологией в этой архитектуре. Начало 1990-х годов отмечено огромным изменением в этой отрасли в связи с изобретением корпорацией Intel одноосного напряженного кремния в 90-нм технологии. Это изменение отмечено использованием кремний-германиевых сплавов в истоке/стоке PMOS (р-канальный МОП) транзистора, оно открыло эпоху больших перемен в материалах в дополнение к существующим геометрическому и электрическому масштабированиям. 65-нм этап был последней возможностью, чтобы использовать «рабочую лошадку» отрасли, SiON диэлектрик затвора. Начиная с 45-нм, Intel сделал переход к экзотическому диэлектрику на основе диоксида Гафния c высоким показателем диэлектрической проницаемости k и сложной сэндвич-структурой пленок. Наконец, 22-нм этап ознаменовал конец 50-го года жизни планарного МОП транзистора и переход на tri-gate технологию 3D-транзисторов. Сегодняшнее состояние технологии напоминает транзистор конца 1980-х примерно настолько же, насколько Феррари напоминает конный экипаж.



Не только структура транзистора и материалов резко изменилась за последние десятилетия, но и цель масштабирования транзистора также изменилась. В 1980-х и 1990-х годах классическое масштабирование обеспечивало значительные улучшения в скорости транзистора для работы микропроцессоров на более высоких рабочих частотах. Но мы платили цену за очень высокую плотность мощности все более высокими ее утечками. 2000-е годы открыли эпоху, когда предел плотности мощности и рыночный спрос на мобильные компьютеры изменили фокус транзисторных технологий с повышенной производительности к уменьшенному энергопотреблению. Современные компьютеры, являются ли они высокопроизводительными серверами или маломощными мобильными телефонами, все требуют повышения энергоэффективности и снижения утечки энергии. А рост интереса к системам-на-чипе (SOC) придает все большее значение созданию широкого спектра устройств на одной микросхеме, из высокопроизводительных транзисторов с ультра-низким уровнем утечки.

Радикальные новые подходы
Историческая перспектива очень важна, потому что она напоминает нам, что единственной постоянной в нашей отрасли является изменение (или, как выразился Йоги Берра, «будущее — это не то, что это было»). В будущем радикально новая архитектура может создать еще один колоссальный сдвиг, когда постепенное улучшение перестает работать. Существует много потенциально привлекательных вариантов технологий вроде туннельных полевых транзисторов, BISFET (bilayer pseudospintronic field-effect transistors) транзисторов, полевых транзисторов на основе графена, и полевых транзисторов на основе спина. Все они активно исследуются в ведущих полупроводниковых компаниях.

Еще одним трендом, который приобретает все большее значение, является более тесная интеграция технологических процессов, дизайна и архитектуры продуктов. За последние несколько поколений, ограничения в процессе масштабирования привели к ограничениям в дизайне, которые, в свою очередь, требуют более тесной совместной оптимизации между дизайном и процессом для достижения лучшего результата. Эта тенденция, вероятно, сохранится и даже будет расти. Будущее будет включать в себя интеграцию новых процессов, дизайна и архитектуры, такие как 3D упаковку внутри чипа, а не только внутри TSV(through-silicon via) упаковки и новых подходов к вычислениям, таких как техпроцесс, оптимизированный для не-булевой логики.

Вполне возможно, что новая архитектура техпроцесса завтра сделает настолько же сильный рывок, что «сегодняшний Феррари» станет выглядеть как древний «конный экипаж». Поскольку мы живем и работаем в это удивительное время для полупроводниковой промышленности, и мы надеемся увидеть еще 50 лет «работы» закона Мура.
+53
46224
58
igorpr 3,5

Комментарии (26)

+3
nerudo #
> 2000-е годы открыли эпоху, когда предел плотности мощности и рыночный спрос на мобильные компьютеры изменили фокус транзисторных технологий с повышенной производительности к уменьшенному энергопотреблению.

Фокус, я так понимаю, изменили не по доброй воле, ибо от 20 ГГц процессора в бюджетном домашнем десктопе и сейчас никто бы не отказался…
0
safright #
Не открылся. Но в 2000-х гигагерцы были ду ты ми — я это хорошо вижу, сравнивая нетбук asus 1215n и свой старый десктоп на очень даже крутом пентиуме 4-3.0GHz )
+7
Brotherofken #
Насколько я себе представляю, дутыми они ни в коем случае не были. Была другая архитектура, другой критический путь (который ограничивал частоту). Nehalem — новая микроархитектура с абсолютно иныыми характеристиками (извините за стиль К.О.).
0
safright #
Примерно это и имею в виду. Просто обращаю внимание, что тогда, в нулевых, количество цифирок рядом с «GHz» было скорее маркетинговым ходом для того чтобы как-то классифицировать уровень процессора, чем потребностью для повышения эффективности. Вспомните AMDшные гигагерцы, которые указывались не реальные, а «аналогичные по производительности».
+3
adic3x #
Черт, меня опередили.

> количество цифирок рядом с «GHz» было скорее маркетинговым ходом

Сейчас их успешно заменили на «ядра» и «гиги». 4 ядра 4 гига. Черт. Как я приводил пример, что характеристика ПК «4 ядра 4 гига» — это все-равно, что автомобиль «4 колеса 4 двери».
0
Zelgadis #
Так в середине нулевых начали указывать рейтинг рядом с герцами.
+5
adic3x #
Они были кукурузными. Нет, там просто была более низка производительность на один герц. чем сейчас. К слову, конкурирующая организация, у решений которой производительность на герц была выше вынуждена была ввести липовые названия для процессоров, например Athlon XP 2000+ 1.666 ГГц (сейчас пишу с него ;) ), который «сопоставим с P4 2 ГГц».
+3
safright #
Сложночитаемый текст, да и статья, похоже, так себе — где те же планы интела по переходу на 14нм, информация о размещении прямо на чипе модуля связи и т.п. вещи, которые обеспечат работу этого самого закона Мура?
0
Brotherofken #
+2
igorpr #
Действительно, SOC (System-On-Chip) является в последнее время бурно развивающимся направлением. И от части об этом шла речь в предпоследнем обзаце. Модуль связи — не едиственный компонент, который скоро «приживется» в кристалле. Минитюаризация устройств требует более тесной интеграции всего.
0
safright #
Не затруднит указать примеры, кроме интегрированного модуля беспроводки и генератора рандомных чисел (который успешно закинули при производстве Ivy Bridge)? А то может пропусти чего-то интересного…
+2
igorpr #
Простите, примеры SoC или об интеграции компонентов в процессоры? Про второе, можно говорить про графику и контроллер памяти, которые уже там. Про развитие SoC: есть общие презентации типа: http://download.intel.com/pressroom/kits/soc/SoC_press_briefing.pdf
Чтобы подробно? — Я думаю что будет отдельная тема для разговора.
+1
safright #
Я знаю, что он есть, потому и спросил, что помнил про недавний анонс)
–5
AStahl #
Я знаю ответ на этот вопрос.
Так когда же?
Когда умрёт (желательно насильственной и неспешной смертью) последний маркетолог.
Я считаю, так называемый «закон» держится исключительно из-за желания маркетинга получить деньги за промежуточные варианты технологий. Готов поспорить, что многие из технологий, которые сейчас нам показывают как нечто новое, были доведены до ума уже много лет назад.

+4
scramble #
Вывод любым из игроков на рынок технологии, которая бы превзошла все существующие на данный момент — это то, к чему стремятся производители, ведь для них это бы означало колоссальное конкурентное преимущество. Вы же похоже, думаете, что имеет место что-то вроде картельного сговора. Вряд ли.
Небольшие с точки зрения потребителя улучшения для производителя оборачиваются огромными затратами на исследования. Дайте технологиям время- 100 и даже 200 лет — это очень малый промежуток в масштабе мировой истории.
+1
DjOnline #
+7
igorpr #
+2
Bagobor #
Под архитектурой видимо надо понимать не столько архитектуру кристала, как архитектуру системы (правда сейчас это уже сильно размывается).
С точки зрения системы — интегрированный контроллер памяти\шины, SSD диски — сильно подняли производительности.
Я, как разработчик, был бы очень рад если бы через N < 10 лет уменьшили бы задержки на рандомные операции с памятью, хотя бы в 4-8 раз (если мерить в тактах процессора).
0
merlin-vrn #
Кстати говоря, гигагерцы росли, производительность «попугаев на гигагерц» росла, скорость жёстких дисков, сетей росла — всё это изменилось в десятки раз. Скорость работы динамической памяти выросла за то же время раза в три.
0
Bagobor #
О том и речь что как архитектура x86 развивается не особо целостно.
Что в общем-то, в какой-то мере, является следствием ее универсальности.
И это здорово раздувает многие бюджеты проектов программных продуктов.
0
merlin-vrn #
Я не про x86, я про аппаратные технологии в целом. DRAM-память и (S)ATA-диски не только в x86 используются.
–4
Marchevsky #
Закон Мура — мыльный маркетинговый пузырь, который надувает и раздувает ваша зажравшаяся контора.
–1
Halt #
Какое это имеет отношение к тематике поста? Вы его вообще читали?
+1
igorpr #
Привет сторонникам Теорий Заговора и Вселенского Зла!
А если серьезно, совершествование полупроводниковых техпроцессов и придумывание абсолюно новых принципов вычислений, включая квантовые и оптические компьютеры, происходит в разных местах и не зависимо от какой-либо конкретной компании. (Гугл Вам в помощь)
Закон Мура придуман Инженером (почитайте внимательно биографию автора закона, закон был придуман когда еще не было Интела), и поддерживается инженерами и учеными различных компаний и научных организаций уже столько лет, если хотите «на слабо».
+1
lightman #
И как же бездарно мы растрачиваем ресурсы процессора на неидеально оптимизированные операционные системы, всяческие машины с байткодом, кривой софт…

Какой реальный получается КПД у современной системы, например в играх, кто-нибудь считал?
+1
adic3x #
Маленький пост ненависти
Я играл в Третьих на вышеуказанном Athlon XP 2000+, вся система была подобного уровня (512 МБ drr-400 например), и длительность хода всех ИИ редко превышала 10 секунд на самых огромных картах.

Недавно я взял ноутбук на Core i7 3610 (там еще 8 ГБ ddr3-1600 было), и попробовал поиграть на нем в пятых героев. Длительность хода каждого ИИ даже на средних картах составляла 10 секунд. Я решил, что быть такого не может, и что это какие-то неправильные герои. Поискав в Гугле информацию, я обнаружил гневные посты, где владельцы всяких Phenom и Core2Duo иже с ними жаловались на ход всех ИИ больше 15 минут (!!!).

Соль в том, что уровень ИИ сопоставим, и задачи, которые надо просчитывать тоже сопоставимы.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.