Системный администратор, управляющий
34,5
рейтинг
8 апреля 2014 в 17:13

Разработка → Первый 128-гигабайтный DDR4-модуль памяти Hynix recovery mode

image
Корейская SK Hynix сегодня сообщила о выпуске первого в мире модуля оперативной памяти DDR4 на 128 гигабайт, что вдвое превышает ранее представленные образцы продукции. Новый модуль также представляет собой модуль с самым плотным в мире размещением компонентов. Он базируется на 8 гигабитных чипах DDR3, созданных по 20-нанометровому процессу.

Новый модуль имеет полосу пропускания 17 Гбит/сек и работает на частоте 2133 МГц по 64-битному интерфейсу ввода/вывода. Помимо этого, он потребляет всего 1,2 Вт, против 1,35 Вт у нынешних модулей DDR3.



Очевидно, что новая разработка SK Hynix, когда появится на рынке (а производитель не уточнил дату) будет очень дорогим и нишевым продуктом для профессионалов, которым требуются очень большие объемы ОЗУ с высокой скоростью доступа — это in-memory продукты, решения для редактирования больших объемов графики и видео и т д. Также очевидно, что еще длительный период времени мейнстримом будут 8, 16 и 32 гигабайтные модули. Сейчас на рынке даже нет материнских плат, которые бы поддерживали 128 Гб на один слот памяти.

В SK Hynix говорят, что новый модуль памяти имеет главным образом серверную ориентацию и предназначен для серверов ультраплотного размещения, к которым предъявляются серьезные требования по производительности и экономичности.

Источники в корпорации Intel говорят, что чипмейкер обеспечит поддержку перспективного формата памяти DDR4 осенью 2014 года. Новый формат DDR4 был в разработке около пяти лет, он предлагает более высокую скорость обмена данными при пониженном энергопотреблении. Также выход этого формата на рынок означает постепенное списание формата памяти DDR3, который сейчас считается мейнстримовым.

Принятие DDR4 производителями процессоров, модулей памяти и материнских плат — это первый шаг на пути практического развития данного формата на рынке. В Intel говорят, что обеспечат поддержку DDR4 сначала в новом поколении чипов Xeon Grantley, которые будут базироваться на микроархитектуре Haswell и выйдут к третьему кварталу этого года.

В то же время, источники в корпорации говорят, что до того момента, как DDR4 станет стандартом де-факто в ПК и ноутбуках пройдет еще год или полтора. В Lenovo сегодня также заявили, что готовят к релизу серверы на базе Xeon Grantley в третьем квартале 2014 года.

Напомним, что первые модули DDR4 с геймерскими материнскими платами были показаны на Intel Developer Forum еще в сентябре 2013 года, тогда как в Intel заявили, что в будущем и геймерские процессоры компании обязательно будут поддерживать DDR4, хотя точной даты этого пока нет. В компании также говорят, что поддержка DDR4 ноутбуками сулит последним более продолжительное время работы от аккумуляторов. Согласно стандартам, DDR4 обеспечивает на 50% более широкую полосу пропускания данных и на 35% более экономичый расход электроэнергии в сравнении с DDR3.
Андрей Абдин @Fiesta
карма
9,7
рейтинг 34,5
Системный администратор, управляющий
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Разработка

Комментарии (76)

  • +15
    16x128=2Тб памяти (на более-менее хорошей серверной материнке). Уже лучше, хотя всё ещё маловато.
    • +36
      Маловато для чего? Я столько вкладок в браузере не открою…
      • +10
        Пока что не откроете. Кроме того, речь про сервера. А уж чем на сервере 2Тб забить… select *… inner join… outer join… inner join… outer join… И так пока памяти хватит.
      • +21
        если начать открывать прямо сейчас, то наверно можно (:
      • +9
        Ха! Скажете это года через 3-4: ребята-браузеростроители не сидят на месте! )
        • +5
          И это — самое грустное.
          • 0
            Это еще не страшно.

            Вот когда будет перестанет хватать 2Тб L1-кэша на камне — вот тогда да, можно будет начинать панику :)
            • +1
              Если это случится — я паяльником выну гигабайтный регистровый файл из процессора и спаяю на нем свой компьютер для Fido.
              • 0
                Регистровый файл?
                • +8
                  Знаете, что такое регистры процессора? Это очень дорогая и маленькая память. У x86_64 — шестнадцать регистров «общего назначения», доступных программе. Но реально их больше, так как есть такая фитча, как переименование регистров, нужная для суперскалярности. Кусок процессора, занятый под эти регистры и называется регистровым файлом.
          • 0
            Не то слово((
        • –3
          для Duke Nukem в стиме рекомендованные требования: 1 гиг оперативы, 256 видео и процессор 1,8 ГГц
          store.steampowered.com/app/225140/?snr=1_237_151__103_2
    • +1
      Ну, это ж на сокет =))

      А так на 2 сокета и сейчас можно 2TiB набить.
    • 0
      На ещё чуть более хорошей серверной материнке слоты ОЗУ находятся на платах расширения, и слотов получается сильно больше 16. Ещё есть QPI, а IBM делал полки с ОЗУ.

      Объём ОЗУ одного сервера ограничен бюджетом, а не техникой.
  • +2
    Сейчас на рынке даже нет материнских плат, которые бы поддерживали 128 Гб на один слот памяти.

    Всегда думал, что зависит это от ЦП, а не от матери.
    И да, уже есть материнские платы с DDR4?
    • +2
      Может имеется ввиду что нет соответствующих плат, куда бы можно было вставить эту планку? Процессор процессором, но не молотком же их забивать.
    • +1
      там 288-контактные разъём, таких плат просто пока нет, в DDR3/2 было 240.
      • 0
        Плат нет потому что ЦП нет, а не нет ЦП, потому что нет плат. Не путайте причину и следствие.
    • –1
      Нынешние процессоры x86_64 могут адресовывать до 16 Эксабайт (порядка 16 000 000 000 гигабайт).
      • +4
        Наличие 64-битной адресации не означает возможность хоть как-то такое количество памяти к процессору подключить. Почитайте datasheet на 23-24 страницах. Там предъявляются вполне конкретные требования к поддерживаемой памяти.
        • 0
          Не знал, спасибо.
      • 0
        Увы, это все виртульная память. Физическая зависит от шины процессора\матплаты\ОС.
  • +3
    Таких пару штук в сервер, сам сервер — в мощный УПС и можно хранилище делать для супер-высоконагруженных проектов и сервисов. Типа Gigabyte RAM-drive, только штатными средствами.
    • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Ага, только вот ошибок будет возникать намного больше + данный тип хранилища будет ну ооооочень требователен к качеству цепей питания самой планки.
  • +5
    Похоже можно винт и не покупать, все будет в памяти храниться.
    • +5
      До первого ребута/сбоя.
  • +9
    С такими то объёмами почти все можно хранить в ОЗУ, только бекапы периодически писать на диск.
    • +2
      Да и сейчас уже объёмы памяти множества серверов позволяют хранить в памяти сотни гигабайт информации. DL580 Gen8, от HP — 3тб RAM.
  • +2
    Совмещать такие модули с SSD, получив новый тип гибридных накопителей. В процессе работы держать все в ОЗУ. Красота.
    • +5
      Уже давно всё совместили за вас. Называется write-cache. По этой причине консьюмерские ssd'шки иногда оставляют вместо файловой системы тыкву при внезапном отключении.
      • +1
        Можно ж не в writeback держать, а writethrough. Тогда скорость чтения приятная, а записи — как на ssd
        • +1
          Еще лучше — аварийную батарейку(BBU) добавить.
  • –3
    Ура… мы летим в космос :)
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      А что же произойдет в случаи системного сбоя? Kernel Panic или того хуже BSoD? Для таких решений нужна реализация низкоуровневой прослойки которая будет разгребать что же система оставила в оперативке, куда и как это записывать, или же бекапить ОЗУ в swap раздел, и потом колупать ее с вновь запущенной системы в поисках того, что же там было и не записано в фс на винте…
      • НЛО прилетело и опубликовало эту надпись здесь
    • +2
      Железные RAM drive в виде платы с аккумулятором для слота PCI давным давно придумали.
      • НЛО прилетело и опубликовало эту надпись здесь
      • 0
        Обычные DRAM требует постоянной регенерации. Помимо самой памяти, надо еще и контроллеры питать. Потребуются сравнительно емкие аккумуляторы. А значит и объемные. И то при долгом выключении все пропадет. Нужно либо энергонезависимое ОЗУ, либо ПЗУ, имеющее объем, сравнимый с используемым ОЗУ, в которое будет закидываться содержимое ОЗУ при отсутствии питания. При последнем варианте аккумулятора должно хватать лишь не небольшой промежуток времени, требующийся для копирования.
        • 0
          Долго питать и не нужно, достаточно чтобы успеть залить все данные на ssd + столько же прозапас.
          p.s. 1тбайт + средний ssd на 200мбайт/с записи ~ 1.5 часа, аккумулятор на такой срок будет меньше чем куча планок памяти, плата и ssd диски вместе взятые.
          • 0
            А вы точно внимательно прочитали комментарий? (или я ваш неверно понял?) О долгом питании речь была насчет варианта с отсутствием ПЗУ. А добавление ПЗУ и было решением проблемы нужды в емких аккумуляторах.
  • 0
    > 128 ГБ
    > Он базируется на 8 гигабитных чипах DDR3
    По моим подсчетам, для этого надо 128 чипов, но на картине их явно меньше, даже если предположить, что они там с двух сторон.
    • 0
      И да, мне было интересно, «на восьми гигабитных» или там опечатка и «на восьмигигабитных». Восемь гигабитных дают гигабайт. А восьмигигабитных надо 128. Странно как-то.
    • +8
      <sarcasm>Они ещё красиво расположили чипы на плате. Расово верно, я бы сказал.</sarcasm>
      • 0
        Если с другой стороны зеркально, то добавляется ещё один смысл.
        image
    • +2
      И вообще почему DDR3, если это DDR4? :)

      А так на фотке вижу только на 1 стороне 18 чипов + 1 ECC, но 128 ни на 18 ни на 36 ровно не делится.
      • 0
        При таком расположении на обратной стороне вместо ecc+spd может влезть ещё 2 чипа, но 38 — тоже не круглое число.
        • +1
          Возможно там действительно 8Гбайт микрухи, а 2 лишние используются как резерв. На нынешних модулях серверных тоже есть возможность отключения сбойного чипа и перенос его функций на ECC чип (с отключением ецц ессесно).

          Может тут что-то в таком духе, аля избыточный объем как в SSD.
          • 0
            К сожалению на сайте skhynix я этих чипов не нашел. Западный интернет рассказывает повально про 8Gb чипы.

            Судя по www.businesskorea.co.kr/article/3977/12gb-dram-sk-hynix-develops-world%E2%80%99s-first-128gb-ddr4-memory-chip на double side dimm упаковали 64GB. При той же упаковке с использование though silicon via (слойка из чипов в одном корпусе удалось уплотнить в два раза.

            36 чипов соответствует 9*4 (по чипу для ecc на каждый байт) что при чипах в 2GB (16Gb) даст как раз 64GB. А при соответствующем уплотнении может дать 128GB.

            Самые последние серийные DDR4 чипы, например, самсунга имеют плотность 8Gb. Вариант компоновки, схожий с представленным на фотов посте можно увидеть тут: www.samsung.com/global/business/semiconductor/file/product/DDR4_Product_guide_Dec13.pdf.
            См LRDIMM.

            Комментарий уже нечаяно отправил, поэтому оставлю с минимальными дополнениями.
  • +1
    Новый модуль также представляет собой модуль с самым плотным в мире размещением компонентов. Он базируется на 8 гигабитных чипах DDR3

    Что-то тут не так наверное?
    • 0
      Fiesta же
  • –3
    128 GB в руках, а ногти не стрижены ;(
    • +7
      А длинные волосы на заднем плане не наводят на подозрения?
      • +6
        Вы правы, сисадмин скорее всего.
        • 0
          На девушку из отдела маркетинга больше смахивает)
        • 0
          .
  • +3
    17 гигабит в сек для 128гигабайтного модуля… это прочитать весь модуль займёт целую минуту! где же ты hybrid memory cube…
    • 0
      Не верю, наверняка гигабайт. 2 гибабайта в секунду — показатели домашнего ПК десятилетней давности.
  • +3
    Маст хэв всем java программистам
  • 0
    это in-memory продукты, решения для редактирования больших объемов графики и видео и...

    ...Google Chrome
  • 0
    Мне одному думается, что, скажем, Samsung возможно обломает планы SK Hynix на «дорогой и нишевый продукт»?
    • 0
      А зачем? Зачем нормальному человеку 128 гигабайт на десктопе — тем более одной планкой? 64 гигабайт хватит всем.
      • –2
        Билли как-то долго всем доказывал, что 64 Кб хватит всем.
        • 0
          Нолик забыли. И таки хватило бы — если не 640 Кб, то 64 мегабайт — за глаза, если бы не «красивые окошки».
      • 0
        А давно ли на десктопе используют registred ecc memory?
        • 0
          Вот и я о том же — в десктопы этот монстр не пойдет. Надеюсь — никогда.
          • +1
            У меня на ноуте 16G и мне бывает мало. А больше проц не поддерживает =(
            • 0
              А как вы эти 16G используете?
              • 0
                1-2 виртуалки в vagrant или аппсервер, несколько бд, небольшой tmpfs, idea/rubymine (обычно несколько экземпляров), браузер.

                Например, сейчас у меня запущены: 1 виртуалка в vagrant, idea, pycharm, mongodb, rabbitmq, chrome, docker. Всего счастья на 12G. Но я давно вкладки лишние не закрывал ,)

                В обычной работе занято 8-14G, остальное — дисковые кэши (та же mongodb их любит). Иногда забивается полностью, но стараюсь не доводить. Последнее время больше упирается в ssd и cpu.
                • 0
                  Но это — практически сервер, а я все-таки говорю о десктопах.
                  • 0
                    Это не сервер. В лучшем случае мобильная рабочая станция, хотя ноут — обычный lenovo x220. И то, на рабочих станциях обычно уже используют registred ecc memory.

                    Все вещи, которые на нем используются — dev environment, не более
                    • 0
                      По нагрузке это ближе к серверу. И почему вы не хотите вынести такие вещи, как, например, mongodb, на стационарную систему? Мне кажется, это сильно упростило бы жизнь.
                      • 0
                        Чем упростило бы?

                        На локальной машине можно спокойно гонять тесты в монге, убивать коллекции и базы и т. п. Плюс меньше затрат на сетевой стек, что приятно сказывается на времени тестирования. Использовать монгу на сервере мне актуально только при значительном объеме тестовых данных (больше нескольких ГБ, когда ssd становится жалко =) ), но там нужна аккуратность. Держать рядом dev и stage/production — опасно. Иметь отдельный сервер под dev — избыточно.

                        Тестировать деплой и интеграционку в vagrant, закидывая туда даже жалкие 200-300 MB (не считая того, что тащится из репозитория), куда дешевле на локальной машине.

                        Локальная отладка в аппсервере или сервлет-контейнере куда удобнее, чем удаленная. Просто по скорости.

                        Отгружать сборку своих проектов на сервер — не разумно. Они локально вполне нормально собираются за десятки секунд. Пушить в git или гонять rsync только ради сборки на сервере смысла нет, т. к. лишние операции.

                        В общем, не вижу никаких проблем в том, чтобы использовать нормальный ноутбук на жалком sandy i5 в качестве workstation. Причин перетаскивать dev окружение на отдельную машину — тоже. Учитывая, что администрирование всего этого хозяйства тоже на мне — нафиг такое счастье.

                        Повторюсь, по нагрузке это не дотягивает до нормальной рабочей станции. Про нормальные сервера — вообще молчу.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.