Компания
416,60
рейтинг
12 апреля 2013 в 08:44

Разное → Будущее роста производительности: что нас ждет в ближайшие несколько лет


Ранее уже говорилось о том, с какими проблемами столкнулось дальнейшее уменьшение техпроцесса, что рост производительности замедлился, и ни многоядерность (multicore) ни manycore решения не являются долгосрочным спасением от возникших проблем. Но полупроводниковая индустрия не стоит на месте, а пытается решить эти проблемы, как в краткосрочной перспективе (~5 лет), так и в долгосрочной. В этот раз рассказ пойдет о ближайших планах.

Краткосрочные планы ITRS (International Technology Roadmap for Semiconductors) по развитию фокусируются вокруг подхода, получившего название «More-than-Moore». Его цель – применить к аналоговым схемам те же принципы, которые на протяжении десятилетий позволяли уменьшать размеры цифровых устройств. А затем интегрировать аналоговые устройства в составе SoC (System on Chip) или SiP (System in Package). Это делается, чтобы повысить энергоэффективность и возможности системы в целом, увеличить сложность устройств (а значит, ответить на вопрос куда девать доступные транзисторы :) ) и обозначить планы развития для связанных с этим процессом технологий. Ожидается, что гетерогенная интеграция будет основным фактором развития во многих областях, начиная от передачи данных и заканчивая развлечениями.



Вместо того, чтобы концентрироваться на одном лишь CPU, как компоненте, повышающем возможности системы и дающем ей новые области для применения, More-than-Moore подчеркивает важность интеграции и эффективности каждого компонента. Если More-Moore (традиционный подход к созданию более мощного процессора, пользуясь достижениями техпроцесса) относится к возможностям выполнять вычисления, то More-than-Moore связан с возможностями взаимодействия с окружением и пользователями.



Оригинальный More-than-Moore подход ничего не говорит о преобразовании аналоговых схем в цифровые. Но представленная Intel в рамках ISSCC 2012 статья демонстрирует иное: Существующие беспроводные модули для мобильных устройств выполняют цифровую передачу данных, но при этом используют множество аналоговых составляющих. Аналоговые транзисторы сложнее поддаются миниатюризации, и поэтому имеет смысл создание чисто цифрового радиопередатчика. Также утверждается, что можно эффективно защитить CPU и радио от взаимного влияния, которое раньше препятствовало интеграции этих устройств.


NTV-процессор, на котором работает Windows и Linux от небольшой солнечной батареи.

Одна из наиболее примечательных тенденций современных полупроводниковых исследований – то, как поиск энергоэффективных решений полностью заменил гонку за тактовой частотой. Теперь успех измеряется в том, как долго устройство находится в состоянии минимального энергопотребления и как быстро переходит из него в рабочий режим.


Исследования Intel в области цифрового радио и NTV(Near Threshold Voltage) электроники, трёхмерной интеграции и т.д. – примеры того, как сместился фокус разработок. Впрочем, это относится не только к мобильным устройствам. Суперкомпьютер K (в действительности – «Kei» – 京 – «10 квадриллионов» в переводе с японского), созданный Fujitsu и Riken был также спроектирован с учетом энергоэффективности как одного из основных факторов. В частности, напряжение питания каждого отдельного процессора выбирается согласно текущим требованиям, что позволяет сэкономить 1МВт мощности и ~$1млн в год.

Опять-таки, возможно, такой подход Fujitsu никогда не будет напрямую применяться в PC или мобильных устройствах, но он показывает, насколько производители ищут порой самые экзотические способы снизить энергопотребление.



Подобные разработки и инициативы отчасти видны уже сейчас и будут доминировать ближайшие несколько лет. Согласно прогнозам DARPA Exascale Challenge, производительность суперкомпьютеров к 2015 году должна была бы преодолеть отметку в 1 экзафлоп при энергопотреблении до 20MW. Но вместо этого из за ряда причин развитие замедлилось. И текущие показатели производительности отстают на 3 порядка.

О долгосрочных планах связанных с ростом производительности, в основном, связанных с поиском альтернатив кремнию, в следующий раз.
Автор: @yurav
Intel
рейтинг 416,60

Комментарии (49)

  • +23
    Заголовок не соответствует содержимому. В заголовке про производительность, в статье про энергопотребление.
    • +1
      Вам со стороны, возможно виднее.
      Но одно и другое тесно связано. Если power ограничен, то снизив энергопотребление в одном месте можно добиться роста производительности в другом, за счет возможности увеличения частоты, например.
      • +2
        С такой логикой: если низить частоту — то еще сильнее можно понизить электропотребление! (как раз в тему статьи) То есть будущее производительности в понижении производительности? :)
        • –1
          нет, снизив частоту ты кроме экономии энергии (? думаю не всегда так, помню что некоторые старые процессоры начинали от этого больше греться, а значит тратили больше энергии) снижаешь производительность в некий такт времени.

          т.е. для решения одной задачи мы потратим, например, в 1.5 раза больше времени. Сколько потратим энергии? Столько же, как до снижения частоты.

          В статье говорят об обратном.

        • 0
          Ага, чтобы познать рекурсию, надо познать рекурсию. :)
          А если серьезно, где-то можно сэкономить power без ущерба для производительности или с малым ущербом. а где-то за счет этого можно получить её существенный прирост.
          Сложная оптимизационная задача :)
  • +4
    Дали понять: «Не ждите» 50-100% каждый год.

    Да и ладно пускай +10% но «честные» т.е. в большинстве нормально(более или менее линейной обратной связью на производительность) и без смены сокетов!
    • +4
      Вы правда считаете, что смена сокетов — это только маркетинг?
      • –1
        Я правда считаю что выпуск новых процессоров возможен на «старых» сокетах.
        • +1
          Возможен. Возможно вообще многое, вопрос — насколько эффективно.
          • +11
            Поясню — со сменой поколения микропроцессоров меняется расположение функциональных блоков на кремнии. Использование старого сокета накладывает много ограничений на расположению точек, куда подсоединяются выводы корпуса. Что в итоге или отрицательно влияет на производительность, или вынуждает сменить сокет. Были идеи с реконфигурацией соединений сокета на уровне прошивки матплаты, но это тоже бьет по производительности.

            *я не утверждаю, что за сменой сокетов нет маркетинга, но надо понимать, что есть и более объективные причины.
            • 0
              А почему переходник не придумали? :)
              • 0
                по тем же причинам: отрицательно влияет на производительность
            • 0
              > Были идеи с реконфигурацией соединений сокета на уровне прошивки матплаты, но это тоже бьет по производительности.

              А такое вообще существует? Военным, наверное, было бы удобно: взял дублирующую рацию, воткнул процессор из сломанного ноутбука, подключил экран и у тебя снова ноутбук %)
              • 0
                О том, применяется ли хоть где-нибудь — ничего не могу сказать.
                Знаю, что такая возможность изучалась
        • +6
          Если бы все было так просто, то только так бы и было. Смена архитектуры процессора, почти всегда приводит к серьезному изменению расположения входов/выходов сигналов, а также их мощности. В результате, как бы этого не хотелось, но менять разводку приходиться, а следовательно и сокет.
          Как написали выше, это возможно. Вопрос в том, а за какую цену? Серьезное падение производительности — это не компромис.
      • +3
        Я считаю, что смена 1155 на 1150 — маркетинг. Что кардинально отличает 50ый от 55ого? У меня вот сейчас умерла 1155 MB и унесла за собой весьма недешевый CPU — 2600K. Поставить сейчас 3770к — наступить на грабли. Если через год выйдет из строя мамка или проц — я не найду нормальной замены, и буду вынужден менять два компонента сразу. Сейчас сижу на core2duo e7300. Сами понимаете, что это такое, после 2600К. И что, ждать лета, или переходить на 2011 сокет, потратив вместо 15 килорублей — 30?
        • +2
          На самом деле смена сокета была неизбежна

          * Fully integrated voltage regulator, thereby moving a component from the motherboard onto the CPU.[35]

          Это было необходимо, чтобы оптимизировать процесс по энергопотреблению.
          • –4
            Оно на десктопных i7 прям обосраться как надо было? )
      • +1
        Вы свои надумки приписываете к моему мнению!

        Нет тогда был бы сокет LGA 2012 :)
        Но смена сокета не удобна при апгрейде который приносит +10% производительности.
        Просто магазины идут на апгрейд процессора куда охотнее чем на апгрейд связки материнская плата+ процессор. Наверное ввиду меньших проблем с процессорами.(имхо)
        • 0
          Возможно, я сначала не так понял вашу фразу про смену сокетов.

          Логично. Процессор проще проверить на предмет механических повреждений. Его сложно испортить так, чтобы он всё еще работал. его особенно не видно, в отличие от матплаты, а значит, что он Б/У большинство никогда и не узнает. Магазины тут понять нетрудно. Хотя я могу судить лишь понаслышке — всё моё железо работало до полного устаревания, без апгрейдов.

          Боюсь только, что не меняйся сокеты, даже +10% при апгрейде добиться бы не удалось…
    • –6
      Не совсем так. На самом деле, мы можем 50-100% в год, но нам это не выгодно — держите 10% и гоните свои денюжки, все равно AMD ничего путнего выпустить не могут. А мы пока занимаемся другими делами, пытаемся отжать рынок серверных вычислений у nVidia, мобильных процессоров у ARM и пропихнуть рынок ультрабуков отжимая рынок у ARM и nVidia.
      • +8
        Вы можете чем-то обосновать свои:
        можем 50-100% в год, но нам это не выгодно

        ?
        А то прямо теория всемирного заговора получается… Если вы сами пишете, что AMD не может выпустить ничего путного, то почему думаете, что для Intel это труда не составит? В AMD тоже не идиоты работают…
        • +1
          Причем здесь заговор ???
          Длительное финансовое планирование != заговор.

          Просто если фирма может сделать +30% производительности то это не значит что она сможет это через год\два\пять.

          держите 10% и гоните свои денюжки
          Если честно то я не видел людей в голубой форме с надпись intel c автоматами на перевес.
          Не хочешь +10 % не бери!

          Претензия плана «интел может дать больше прироста 20-30%, а дает только 10» почти такая же что если я к тебе подойду и скажу что ты можешь пойти в лес мусор собирать причем не 1 час а 2-3!
          И вот тут скорее ты можешь! И дело вроде хорошее и кто-то даже будет рад и благодарен тебе!

          Только почему-то интел должна быть альтруистом, а ты,
          ты это ты! Ты ни кому не кому не должен!
      • 0
        «все равно AMD ничего путнего выпустить не могут»
        По соотношению цена/производительность AMD всегда была впереди Intel'а. Лично я не хочу платить за топовый проц от Интела в 3 раза дороже, чем за топовый проц от АМД, если разница в производительности всего 3%.
        * Цифры привел с потолка, но картину в целом они иллюстрируют вполне верно.
        • +1
          К сожалению, топовые процы от AMD в ряде случаев болтаются в районе i3 (архитектура Bulldoser), иногда догоняя процессоры i5. А с решениями сокет 2011 вообще тягаться не могут. Топовый проц от AMD на последней архитектуре против среднячка от интел?

          www.ulmart.ru/goods/377191 vs www.ulmart.ru/goods/309864

          Ссылочки для ознакомления:
          www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/5

          cpuboss.com/cpus/Intel-Core-i5-3570K-vs-AMD-FX-8350

          www.thg.ru/cpu/obzor_amd_fx_8350_test/print.html

          Вам не кажется странным, что четырёхъяедрное решение от Intel в ряде тестов превосходит AMD по показателям на стоковых частотах? А K-серия ещё и гонится, как резиновая.
          • +1
            ключевое слово в ряде тестов

            И зачем совмещать слова топовый и прошлая архитектура.

            иногда догоняя процессоры i5

            А иногда обгоняя!

            Может хватить юлить! Я не говорю что вы врёте! Часто в зависимых обзорах представляют в лучшем свете нужный продукт.

            Стенания на тему: «о я взял процессор фирмы Y а он на 5-10% менее выгодный, чем процессор марки Z». Вот честно, мне охота пристрелить такого чтобы не слышать его истерики!!!
            • +1
              И зачем совмещать слова топовый и прошлая архитектура.


              Затем, что бульдозеры до сих пор продаются, и обладают просто постыдной производительностью. И их покупают люди, думая, что они чуть хуже, чем топ-продукты. Маркировка-то у АМД скользкая, и отличить вишеру от бульдозера по цифрам нельзя так просто, как SB от IB у интел.
      • 0
        А 10 лет назад значит выгодно было! Всё логично, мы сейчас подошли вплотную к потолку технологии, хотите следующего взрывного роста? Придумывайте что-то новое на новой элементной базе или на новых принципах комплектации текущей.
        • 0
          Кому адресовано ваше «придумайте»? :)
          Придумают. Но не в ближайшие 5 лет. В обозначенный срок прирост производительности придется собирать по крупицам. Согласно ITRS в ближайшем будущем разве что от device packaging'а можно ожидать прорывов.
    • +3
      Интел услышала ваши мольбы, и решила вообще от сокетов отказаться. Нет сокета — нет проблемы. :)
  • +3
    Снижение потребление конечно хорошо. Но пользователи особо не против если вы будете делать 100-120Вт решения но с удвоенной производительностью скажем в 40-50Вт решениям.

    У интела есть более скоростные решения но цена растет уж очень не линейно.

    И пока амд не представит что-то лучшее по отношению к интел, последняя +100% ни когда не сделает.
    Ну что конечно экономически понятно.

    Просто грустно.
    И потуги интела в сторону уменьшения электроэнергии это не столько забота о кошельке акционеров датацентров, сколько о своем долгосрочном благополучие. Ну тут тоже все логично и без претензий.
    • +1
      Вот есть у меня высоконагруженое web-приложение. Как я его размещу в датацентре: на одной сверхмощной машине с процом 120 Вт или на 2х средних машинах, потребляющих 40 Вт? Если отбросит стоимость самих железок (хотя более мощная всегда дороже), даже расходы на них подсказывают что второй вариант предпочтительней.
      • +3
        Но вы скромно умолчали по какому такому параметру он предпочтительный.
      • +3
        не все приложения, в том числе и web можно разместить на двух машинах. Кое что требует одной, но мощной.
        • –1
          всегда можно что-то вынести на другую машину: или БД, или сложных демонов которые мешают основному процессу.
      • +5
        Обслуживание двух машин по 40Ватт дороже, чем одной на 120.
        • 0
          но появляется мифическое слово «отказоустойчивость» и вообще распределенные системы типа надежне, ага.
          • 0
            Не распределенные, а резервированные. А одна из стратегий резервирования — это по сути дублирование функциональности на удаленной площадке.

            Распределенные системы сами по себе всегда менее надежны, чем одиночные, так как больше компонент, но на базе распределенной системы можно построить систему, которая будет более надежна, чем одиночная, однако при этом суммарная требуемая производительность распределенной системы опять-же будет больше, чем у одиночной.

            Так что создать более надежную систему из двух машин по 40 можно только если машина на 120 загружена не более чем на треть.
    • +3
      У интела есть более скоростные решения но цена растет уж очень не линейно.

      Не стоит забывать, что и энергопотребление растет квадратично от роста частоты. При прочих равных.
      И чтобы это было не так, приходится прилагать массу усилий.
      На что именно из продукции вас беспокоит нелинейный рост цены?
      И пока амд не представит что-то лучшее по отношению к интел, последняя +100% ни когда не сделает.

      Поверьте, могли бы — сделали бы. но удвоение power-бюджета не даст удвоения производительности.
  • +14
    Сначала увеличивали частоту — до упора…

    Потом начали добавлять ядра — тоже до упора…

    Потом начали улучшать энергопотребление — дальше особо некуда…

    Теперь улучшаем скорость переключения между спящим режимом и рабочим…

    Следующий виток соревнования производителей процессоров — совершенствование кнопки Power!!!
    • +2
      Браво!
      Не совсем коректно и политкорректно, зато по делу. :)
      Почти так и есть, за исключением последнего пункта.
    • +2
      Ну просто есть факт что обновлять нужно всю линейку. Это проблематика как и для интела так и для амд.
      Т.е. предложив интел десктопу 8 ядер на частоте 3.8ГГц ей нужно чтобы и самый топовый процессор также улучшился. И все мы видим как это порой не легко дается добавляют +100Мгц. (И иронии тут нет)

      Так или иначе все будут увеличать ядра в десктопе даже потому, что в серверном сегменте они тоже будут увеличиваться. Движение ради движенияприбыли.

      Думаю что увеличения ядер еще не закончилось.
      И те кто вопит хочу мощи… то они как бы не хомяки… производительность ПК уже давно достигла потребностей 99% пользователей, а оставшиеся 1% хотят творить «сверхзадачи» на недорогом бюджетном железе.

      Т.е. все эти негодования это на тему производительности это негодования ЭНТУЗИАСТОВ. Ну просто профи имеют достаточно денег чтобы собрать рабочую станцию такую какая им потребуется.

      Так Амд может сказать нате вот десктопные процессоры с 16ю ядрами… может. А вот сказать нате вот для серверов с 32ядрами не может.

      Наверно сейчас начинается эра когда количество ядер не будет 2^x.
      Имхо так в ближайшем будущем будем двигаться. + наверное какие-то специфические сопроцессоры.
      Обработка фото\видео\генераций хешей\шифрование.

      Десктоп насытился и будет обновляться по остаточному принципу! (остаточному от серверного)
      Отдельной тропинкой будут идти мобильные чипы. И тропинок будет множество. Возможно они будут ||.
    • 0
      > Потом начали добавлять ядра — тоже до упора…

      Еще не до упора совсем. В этом направлении проблема уже упирается в софт.
      А так — несколько лет назад еще читал про опытные образцы 80-ядерных процов от Интел — и где они?

      > Потом начали улучшать энергопотребление — дальше особо некуда…

      И тут тоже есть куда. См. предыдущий пункт. Если софт сможет нормально работать в многоядерной конфигурации, то мы можем снизить частоты (увеличив количество ядер), и т.о. уменьшить энергопотребление (еще и потому, что не всегда нужны будут все доступные ядра, т.е. часть их можно отключать).
      • +1
        В этом направлении проблема уже упирается в софт.

        И это тоже, но, к сожалению, не только. Не все задачи в принципе можно решать параллельно. А тем более — параллельно на сколь угодно большом числе ядер. Даже если бы софт был идеален.

        опытные образцы 80-ядерных процов от Интел — и где они?

        Xeon Phi не годится?
        если хочется именно в сокет матплаты, то тут проблема с энергопотреблением — видеокарты и им подобные ускорители перебирают в разы типовой энергобюджет CPU.

        т.е. часть их можно отключать

        это давно уже так и делается.
        • 0
          > Не все задачи в принципе можно решать параллельно.

          Тут есть варианты — например, 2-4 очень быстрых ядра на кристалле + два десятка медленных но экономичных. Емнип, что-то подобное в Tegra сделано.

          > это давно уже так и делается.

          Делается, но для включения этой штуки в ОС нужно немного потанцевать с бубном. Я же имел ввиду аппаратную реализацию. Не знаю, возможно в крутых серверных процах это уже есть, но я не особо в той теме.
          • 0
            Чисто аппаратное решение тут не будет эффективно. Оно есть, но…
            Нужна поддержка и в драйверах, и в ОС, и даже, возможно, использование программами определенного API для управления power'ом.
    • 0
      Ещё можно нарастить ширину SIMD и IPC, что мы и видим в Haswell и Steamroller.
    • 0
      > Следующий виток соревнования производителей процессоров — совершенствование кнопки Power!!!

      кнопка turbo уже изобретена :)
  • 0
    Согласен, для потребителя сейчас важно тепловыделение и питание. Но это только начало — по достижению определенной границы эти параметры также начнут стагнировать в устоявшихся сегментах. Для компаний типа Intel все более актуальными становятся вопросы уменьшения ПК до размеров Google glass, но они прекрасно понимают, что титаны в этом новом мире никому не нужны. Поэтому пожелаем им удачи!

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разное