Pull to refresh

Comments 65

вещи, которые Apple может делать со своей унифицированной архитектурой и со своим M2 Ultra — это вещи, которые больше никто не может делать

судя по всему "не поддерживает видеокарты" это как раз одна из таких вещей и тут трудно с ними поспорить

Непонятно ценообразование, с учетом того что Mac Studio имеет практически аналогичные спеки

Корпус, разъёмы, слоты + мощность (?) чипа возможно и потянули на эти 2к разницы, но да, немного непонятно

9Эти новостюшки на хабре: первый абзац - тот же заголовок. Второй абзац - перепевка первого. Потом два абзаца на те же ключевые слова, а в конце ссылка на вообще любую ерунду, но с теми же словами.

Когда-то Марк Твен веселил публику фразой "публиковали новости, если новостей не было - придумывали их сами" (за точность не ручаюсь, искать лень), но ему бы в голову не пришло высасывать одни части новостюшки из её же других частей!

Ведущее ИТ СМИ, правда?

"Я могу раздобыть для вас любую новость – хоть большую, хоть маленькую, а если нет никаких новостей, я выйду на улицу и укушу собаку", - Ace in the Hole (1951 film)

Ну что вы, какое «СМИ»?
Эдак вы хабравладельцев до Кондратия доведёте.
«ОРИ», исключительно ОРИ!

новый Mac Pro с чипом M2 Ultra не поддерживает внешние видеокарты

Так не поддерживает же сам Mac Pro или M2 Ultra. Не поддерживает macOS, раз PCI-E железо поддерживает, значит с "железной" поддержкой PCI-E видеокарт все ОК. Вся проблема в софте.

Видать не хотят портировать открытые драйвера на АРМ.

Да не обязательно, Apple имеет лицензию на arm уровня «дизайна архитектуры», они могут делать со своим процессором все что угодно и как угодно и после этого называть его ARM, если он поддерживает инструкции которые заявляются ARM-ом для выбранной версии (тот же м2 - вроде бы ARMv8.5, но не уверен). Т.е. они могли не предусматривать архитектурно обработку «видео» где-то за пределами встроенного gpu, замкнув на него и огородив от линий PCIe

А что, как и зачем они там делали - тайна покрытая мраком. Возможно позже, с обновлениями поддержка придет, хотя-бы для рассчетов, без вывода видео. Но ведь без гарантий

Не, это не так работает. Обработка видео ничем не отличается от обработки звука или там передачи данных по сети.

Если посмотреть на архитектуру современных видеокарт, то там явственно видно разделение 3д ускорителя и видеовыхода. Чисто программно нет проблем с тем чтобы рендерить кадры на одной видеокарты, а выводить их - на другой. Благо PCIe поддерживает DMA (еще бы оно его не поддерживало). Шине PCI вообще пофиг что там за данные ходят.

Я как раз немного занимаюсь поддержкой PCIe на ARM, так что знаю о чем говорю.

Я как раз немного занимаюсь поддержкой PCIe на ARM, так что знаю о чем говорю

Оу, это круто, а не подскажешь как в общем обстоят дела? Знаю что всякие Ampere Altra и AWS Graviton вроде как под линуксом умеют в серверные видеокарты и частично в десктопные, но на этом все

ARM платформы очень фрагментированные в этом смысле. Все сильно зависит от конкретного вендора и того, как у него сделана поддержка PCIe. Правда, я больше по виртуализации всего этого добра выступаю... Там вообще мрак и ужас (пока что).

А чисто с юзерской точки зрения - ну там все довольно прямолинейно. Как я сказал - PCI в принципе пофиг что там ходит. У нас прекрасно поднимались интеловские сетевухи с SR-IOV, например. Тупо из коробки (ну после того как мы запилили поддержку SR-IOV в гипервизоре, конечно). С PCIe видеокартами мы не игрались, поэтому не могу сказать как там, но ИМХО, все должно работать из коробки, если драйвер в линуксе не заточен на какие-то x86-специфичные фичи. Ну и естественно, это будет открытый драйвер. Бинарные блобы точно не будут работать :)

С DRM подсистемой (это Direct Rendering Manager, а не то что вы подумали) в линуксе я тоже работал очень плотно, поэтому хорошо представляю как там графика работает. Просто как-то не попадались задачи где можно было бы поэксперимернтировать с внешними видюхами на ARMах. Клиентам все как-то интереснее иметь SSD с SR-IOV, а не крайзис запускать.

Бинарные блобы точно не будут работать

Nvidia для загрузки с сайта дает Linux aarch64 для выбора платформы при загрузке драйвера

Клиентам все как-то интереснее иметь SSD с SR-IOV, а не крайзис запускать.

Вообще да, задачи где нужны ускорители которые можно использовать как видеокарту - стоят особняком. Всякие ML да «облачный гейминг», в том числе и «нарезая» одну видеокарту на несколько виртуальных и пробрасывая их в разные ВМ. Только описаный мной случай скорее всего не встречается на ARM как класс (не могу гарантировать, но думаю что так)

все должно работать из коробки, если драйвер в линуксе не заточен на какие-то x86-специфичные фичи.

на ARM байкалах точно работают amd radeon видюхи из коробки, лично пробовал, увы нет задокументированного подтверждения от меня, но емнип Дмитрий Бачило тоже этим баловался, можно поискать на его youtube канале

Обработка видео ничем не отличается от обработки звука или там передачи данных по сети.

"Не, родной, с таким настроением ты слона не продашь" (c)

Всё же поддержка шины PCIe не эквивалентна поддержке видеокарт

Ну с точки зрения самой шины, что видеокарта, что сетевая карта, что SSD - все одно. А вот с точки зрения софта - ну да, драйвера надо писать.

Поддержка PCI-E != поддержке видеокарт. Со стороны того же софта, M чипы это вроде как UMA + TBDR, в то время как в мире ПК нет, то есть имеем кучу софта написанного с учетом этих особенностей, а тут мы втыкаем GeForce со своей памятью и ImmediateMode. Конечно не исключено что можно как-то попытаться на уровне оси и дров это все заставить работать друг с другом, а вот сколько для этого времени и сил надо это вопрос. Ну и неизвестно что там в железе именно заточено под UMA + TBDR. Так что что то мне подсказывает что это не так просто.

Ну то как оно рендерится в конкретной видюхе - это проблемы самой видюхи и ее драйверов. С UMA тоже проблем быть не должно, ведь DMA ж никуда не делся и не денется. Вот то что Apple может не хотеть портировать чужие драйвера на АРМ - это да...

это проблемы самой видюхи и ее драйверов

Metal позволяет использовать возможности конкретной архитектуры GPU (работа с тайлами) и унифицированной памяти. Все акселераторы и GPU связаны через системный кэш. Он координирует потоки данных и обеспечивает QoS.

Внешний GPU это просто левый девайс, который никак не связан с этим кэш-когерентным центром обмена данными. Тупой DMA тут не особо поможет. Пока что macOS и софт может работать с дискретками и драйвер можно сделать, но нужно понимать что это легаси которое будет убрано, чтобы не мешать развитию платформы.

Вот то что Apple может не хотеть портировать чужие драйвера на АРМ - это да...

Портировать их может кто угодно. Зачем ждать Apple?

Удачи в написании gpu драйверов под макось.

рассмотреть бы в дженте, если там М2 есть, а остальное, ну для тех у кого кофе "он" а у кого "оно" мимо - нищеброды.. () а уж у кого "она" :(Ж)

"оснащённых мощными интегрированными 60- или 72-ядерными GPU "

извените

https://habr.com/ru/companies/ua-hosting/articles/422773/

4608 cores, 5120, у мелких 3072 .

это прям мем: Василь-иваныч! вот у меня есть intel type-c а у тебя mac type-c - все верно Петька, но есть нюанс!

Вангую, что нет видеодрайверов под M-процессоры. И вряд ли AMD/NVidia спешат их делать под чрезвычайно узкий сегмент очень дорогих устройств.

И вряд ли AMD/NVidia спешат их делать под чрезвычайно узкий сегмент очень дорогих устройств.

Для macOS/x86 дрова для AMD есть (для NVIDIA тоже, но только для старых карт).
Исходники macOS не читал, но в других ОС, типа Linux и FreeBSD, для PCI-E интерфейс на C,
так что по идее AMD только пересобрать свои дрова нужно и все.
Но это если бы Apple захотела бы, и в macOS/ARM перенесла бы не только "нижний" уровень (PCI-E, DMA и прочее, что скорее всего на и сделала), но и верхний уровень, то есть как ОС "командует" видео драйвером.

Так что, вагную дело в Apple. Может не хочет дать возможность прямого сравнения последних видеокарт от AMD, со своими GPU?

Полностью железо на себя замкнут (память, ssd и прочую мелочевку не считаем) - это сильно упростит многие внутренние процессы в компании и снизит зависимость от внешних поставщиков.

Вы правы, возможно и Apple упрямится. Или просто дрова ещё не стабильны, и компания не готова выкатить сырое решение для своего флагманского продукта.

Здесь есть и другой аспект. MacPro - это очень дорогой продукт, нацеленный действительно на специализированное профессиональное применение. И если пользователи этих компьютеров начнут возмущаться невозможностью напихать квадр/rtx для ускорения своих задач, то это может сподвигнуть Apple на изменения.

ПК также не имеют возможности расширения оперативной памяти из-за унифицированной архитектуры чипов Apple Silicon.

Из-за унифицированной доктрины "нужно больше золота". Продавать распаянную память можно хоть с десятикратной наценкой, а за пустые слоты много денег из покупателя не вытрусишь. Прием, прекрасно отработанный на айфонах - без поддержки карт памяти. Там, на айфонах, тоже было какое-то замысловатое объяснение, почему так лучше, но если его перевести на человеческий, то получится что-то типа "мы хотим единоразово продать память на порядок дороже и потом присадить на потоковые сервисы с повторяющейся оплатой вместо разрешить копеечный апгрейд хранилища и удобную запись туда скачанных бесплатно MP3". Так же и с сабжем - никакого апгрейда с занесением денег третьим производителям, поэтому единоразово покупай вариант как можно дороже с запасом как можно больше, а если мало, то потом купишь следующее поколение опять за полную стоимость. Это же не старый ноутбук, в который воткнул SSD и памяти под завязку - глядишь, он ожил от незначительных затрат. Нет, нужно больше золота.

Незнаю что вы предпочтете в своем телефоне, встроенный нерасширяемый диск со скоростью 1500-1700мб/с или слот для карты памяти со скоростью в 10 раз меньше.

К томуже, ну сколько вы будете пользоваться этим телефоном, 5 лет? Он устареет раньше.

С компьютером, да это имеет смысл, но например мой 10-летний компьютер поддерживает не больше 32г памяти, тогда это было нормально, а сейчас мало, но без смены всей начинки: мать, процессор память, не обойдешься.

Я, например, использую sd карту в телефоне для хранения фото и музыки.

Когда покупаю новый телефон - переставляю в него карту и все.

У меня вот в таком же кейсе карты внезапно умирали несколько раз (с потерей всех данных, да). Еще часто просто отваливались (тут помогало бутнуть телефон). Причем карты разных производителей и ценового диапазона. В итоге плюнул и перестал ими пользоваться в телефонах.

карты внезапно умирали несколько раз (с потерей всех данных, да).

Тормоза бэкапы придумали трусы!

Самому себе придумывать проблемы и потом героически их преодолевать? :)

Бэкапы надо еще и восстанавливать. Да и отвалившаяся карточка обнаруживается внезапно, обычно в самый неподходящий момент, когда надо снимать.

Спасибо, у меня есть сотня более интересных дел, чем постоянно восстанавливать карточки из бэкапа.

Я их, к слову, десятка два умерших в телефонах сменил за все время. А вот сами телефоны и накопители в них еще ниразу не умирали внезапно.

Другим производителям это не мешает, но видимо они не настолько прорывные. Мы всё-таки не в 2010 живём, сейчас не так быстро всё устаревает. Моему телефону 3.5 года, обновился до последнего андроида, хоть и не флагман. Я бы может и хотел новый купить, но вот ума не приложу что со старым делать, потому что он отлично работает. Про десктоп довольно странное утверждение. Вы сравниваете два продукта с разницей в 10 лет, и, о боже, новый выигрывает у старого. Но у вас есть возможность подогнать спецификации имеющейся техники под изменившиеся условия. И что, простите, вас не устраивает?

На внешнюю память удобнно складывать то, что пойдет в новый телефон. Взял с собой и переехал. И в основном это не требует больших скоростей доступа.

Еще полезно это бывает когда телефон окирпичился. Доступа к внутренней памяти уже нет никакого, а карточка памяти может и сохранить работоспособность.

И есть риск того, что вместе с утратой телефона фотки тоже уйдут в небытие.
Или раз в месяц ручные бэкапы?)

Если фотки лежат во внутренней памяти - это их спасет?

P.S. Бекапы можно и по расписанию

Syncthing в одну сторону с append-only приемником.

Ну уж если разговор зашел про айфоны, то там переезд на новый вообще буквально в пару телодвижений, без всех этих танцев. С заменой сломанного тоже - восстанавливаешься из последнего бэкапа и продолжаешь пользоваться.

там переезд на новый вообще буквально в пару телодвижений

Как-то так

Опять котенка с дверцей принесли.

В айфонах переезд сделан реально быстро и удобно.

Опять котенка с дверцей принесли.

А котёнок без дверцы подобен хорошей аналогиии!

В айфонах переезд сделан реально быстро и удобно.

Это пока Вы не встречались со случаями, когда оно НЕ работает.

Это пока Вы не встречались со случаями, когда оно НЕ работает.

Зато я наелся этого на андроидах.

Вот каждая, буквально каждая, смена телефона происходила одним из двух способов:

  • несколько вечеров вручную ставить все приложения и переносить настройки/контент со старого (т.е. по сути полная настройка с нуля)

  • запустить тулзу в телефоне для автоматического переноса, и она криво-косо и не полностью что-то перенесет - и потом вручную точно так же все проверять что оно там наделало

Реально, даже при переезде между двух одинаковых смартах (хуавей п30 и п30про - немного отличаются только обвязкой) оно не отработало корректно. Ну как так то, а?

Если у меня три кота, я их фотаю 10 раз в день, складываю фотки в архив и пересматриваю только раз в год - мне без разницы, насколько медленная будет карта памяти в слоте, я туда все равно пишу одно фото раз в 5 минут.

Для каких-нибудь загрузок с интернета, музыки (когда все просканировано) тоже скорость особого значения не имеет. А приложения можно и нужно в быструю основную память устанавливать.

SD-карты тоже разные бывают по классам и скорости, Nintendo Switch же как-то справляется с ними, просто карту побыстрее ставишь и ничего.

Так что тут действительно просто желание продать подороже, т.к. если можно ставить карту - большинство тех, кто сейчас берет айфоны с >64Gb, будут брать 64 и ставить карту.

А теперь представим, что вы снимаете видео 4k@60fps.

Какую карту памяти надо и сколько она будет стоить?

И меня, кстати, еще мучает вопрос - как быстро пропадет IP68 если ежедневно тыркать лоток с картой памяти?

А теперь представим, что вы снимаете видео 4k@60fps.

Прекрасный аргумент в пользу тех айфонов, которые не снимали 4K@60fps, ведь принципиальное отсутствие карт памяти в них врожденное и началось оно до эпохи 4K.

Какую карту памяти надо и сколько она будет стоить?

Такую, которая поддерживает необходимую скорость записи и имеет достаточный объем. Необходимая скорость зависит от отдаваемого камерой битрейта (разительно отличается от камеры к камере при формально одном и том же 4K@60fps), а достаточный объем - вообще метрика субъективная. Определившись с этими параметрами, можно определить и цены на подходящие карты.

Тут, правда, вы зачем-то игнорируете простую и очевидную вещь: при наличии карты памяти съемка (сохранение отснятого) может идти и на внутреннюю память телефона, а не обязательно на карту памяти, еще и безотносительно того, может установленная карта принимать поток данных с потребной скоростью или нет. Можете контраргументировать?

И меня, кстати, еще мучает вопрос - как быстро пропадет IP68 если ежедневно тыркать лоток с картой памяти?

Зависит от конструкции уплотнителей. Оптимальным мне видится разместить гнездо под крышкой аккумулятора, поскольку проще обеспечить ее уплотнение, но не настаиваю.

Встречный вопрос: а зачем ежедневно тыркать лоток? Опишите, пожалуйста, видимый вами сценарий такого использования. Потому что видимый мною сценарий таков: карта памяти устанавливается надолго, порой не вынимаясь из своего гнезда вообще весь полезный срок эксплуатации телефона, а доступ к ней обеспечивается через телефон. Редко возникает потребность достать карту, наиболее вероятно это случается при апгрейде карты - скопировать большой объем с имеющейся на новую может оказаться быстрее в кардридере, чем подключением телефона с картой в нем. Но, разумеется, это лично мой частный случай, который я не пытаюсь экстраполировать на всех и наоборот интересуюсь тем как, по-вашему, это делают другие.

Прекрасный аргумент в пользу тех айфонов, которые не снимали 4K@60fps, ведь принципиальное отсутствие карт памяти в них врожденное и началось оно до эпохи 4K.

Извините, у вас какое-то зацикливание на айфонах. На тех же самунгах, емнип, с s20 их уже нет. На хуавеях уже давно свой велосипед, который фиг найдешь. Про другие не в курсе, лень гуглить.

Тут, правда, вы зачем-то игнорируете простую и очевидную вещь: при наличии карты памяти съемка (сохранение отснятого) может идти и на внутреннюю память телефона

Которой всего 64Г и 40-50 из них заняты системой и приложениями, да?

Одна минута 4k@60fps дико эффективного HEVC - это примерно 400-440MB.

Оптимальным мне видится разместить гнездо под крышкой аккумулятора

В каких современных приличных телефонах есть эта самая крышка, и она не приклеена?

а зачем ежедневно тыркать лоток?

Скинуть отснятое? Заменить внезапно помершую карту? Вытащить и проверить отвалившуюся карту? По моему опыту они довольно часто могут отваливаться (не каждый день конечно, но часто), и это обнаруживается в самый неподходящий момент.

Которой всего 64Г и 40-50 из них заняты системой и приложениями, да?

Уточните модель, потому что в общем ответ нет, а в частности может быть и да, и даже хуже.

Одна минута 4k@60fps дико эффективного HEVC - это примерно 400-440MB.

Это навскидку менее восьми мегабайт в секунду, что посильно и медленным картам. Ну, может, кроме совсем печальных поделок с алиэкспресса.

Скинуть отснятое?

Если вы предполагаете использовать телефон как репортажную видеокамеру - ежедневно и чтобы отснятое поскорее на пост, потому что эфир уже вот-вот, а вам дальше снимать, то да, принимается. Странно, но не запрещено же - почему бы и нет.

Заменить внезапно помершую карту? Вытащить и проверить отвалившуюся карту? По моему опыту они довольно часто могут отваливаться (не каждый день конечно, но часто), и это обнаруживается в самый неподходящий момент.

На ежедневное никак не тянет по моему мнению, даже на ежемесячное едва ли. На ежегодное - верю. А что в самый неподходящий момент - так это неоспоримая истина. :)

Уточните модель, потому что в общем ответ нет, а в частности может быть и да, и даже хуже.

Ну раз речь идет об использовании sd карт, то внутренняя память берется минимально, не? А иначе какой смысл.

Это навскидку менее восьми мегабайт в секунду, что посильно и медленным картам. Ну, может, кроме совсем печальных поделок с алиэкспресса.

Ну да, конечно. Надпись о 10 классе совсем не гарантирует, что будет четко 10MB/s. Лично сталкивался с лагами даже на настоящих кингстонах. Это придется еще покупать разные карты и тестировать как в реальности дела обстоят.

менее восьми мегабайт в секунду

И это HEVC. С другими кодеками легко может быть в 2 раза больше. Я уж не говорю про серию raw фоток на полном разрешении.

Если вы предполагаете использовать телефон как репортажную видеокамеру

Я предполагаю использовать телефон так как я хочу и так как мне удобно, а не "вы его не так держите".

На ежегодное - верю.

Это вам просто повезло в ваших кейсах. А в реальности лично я вытаскивал карточки 1-2 раза в неделю, иногда чаще. Нет, не только менял сдохшие, но по разным причинам.

С сим-картами же как-то справляются. Обычно симка и карточка в одном лотке.

Обычно симка и карточка в одном лотке.

К счастью и этот идиотизм присутствует не всегда.

Я где-то давно читал, что ресурс подобной влагозащиты с колечком из силикона в районе сотни извлечений. Ресурс контактной группы в районе пары тысяч. Впрочем пруф найти уже не могу сейчас.

Не исключаю и того, что сейчас ради удешевления он стал еще меньше.

Незнаю что вы предпочтете в своем телефоне, встроенный нерасширяемый диск со скоростью 1500-1700мб/с или слот для карты памяти со скоростью в 10 раз меньше.

Вы упорно игнорируете разницу в цене. Это в качестве преамбулы. Теперь по сути. Я предпочту иметь выбор - устанавливать расширенную память самому, а если устанавливать, то в каком объеме, или в принципе иметь такую возможность, но не воспользоваться ею. Теперь вы знаете. Однако, продолжу. Скорость обмена с картой в большом количестве сценариев имеет практически нулевое значение, потому что она, скорость, уже достаточна и ее дальнейший рост не дает никаких преимуществ вообще. Попробую, для примера, назвать некоторые из них: подборка аудио, видеороликов вроде пачки сериалов на выходные, карты для спутниковой навигации. Это примеры предзаписанного вами для будущего только чтения. Для записи самим телефоном - в первую очередь фотографии и видеоролики, ведь они медленно, но неотвратимо забивают внутреннюю память, из которой (у айфона, в отличие от остальных) это еще и неудобно доставать.

Пожалуйста, только не говорите ничего про "облака". Это манипуляция, а не аргумент по сути.

К томуже, ну сколько вы будете пользоваться этим телефоном, 5 лет? Он устареет раньше.

Если не происходит несчастных случаев, приводящих к утрате или уничтожению имеющегося телефона, то пять лет - это минимум. Что значит устареет? Появятся более новые, более лучшие аппараты? Да, так всегда происходит - и так же произойдет с тем самым еще более новым и еще более лучшим. Но имеющийся аппарат только от этого обстоятельства работать не перестанет ведь, правда? А, знаю, "нет обновлений" - вот аргумент так аргумент. Ну что же, отсутствие обновлений - это норма для хорошо спроектированного устройства, у которого еще до выпуска в серию найдены и устранены все баги, поэтому обновление (как гарантийный ремонт по сути) ему просто не требуется. Рост циферки в номере версии ОС меня беспокоит приблизительно никак, а если совсем точно - то совсем никак.

Спасибо за развернутый ответ.

Для сценариев с копированием данных без ПК для айфонов есть флешки с lightning интерфейсом, скоро будут обычные usb-c работать.

Копировать файлы с айфона на компьютер точно также как и с андройда, устройство видится как диск и файлы копируются.

А нафига вам 1500мб/с если в с этим всё равно ничего не сможете сделать? Соединение с компом или сетью всё равно в те самые 100-200мб/с обычно упирается. Да и как будто выбор между двумя сущностями, хотя на самом деле выбор между внтренний+внеший и только внутренний.

Как это не можем? Быстрый запуск приложений, запись серии фото или видео в высоком разрешении - вот сходу придумалось.

Ничего страшного, поставите Asahi Linux и видеокарты заведутся. 😏

Ну может там в самом чипе Apple M2 Ultra была не предусмотрена поддержка дискретных видеокарт? Может в следующем 2024 году Apple выпустит M3 Ultra - уже с поддержкой дискретных видеокарт?

Вон например Qualcomm обещает в 2024 году выпустить новый ARM-чип с 12 ядерным CPU на новой архитектуру Nuvia Phoenix и поддержкой дискретных видеокарт - см. статью: "Qualcomm перевернёт рынок ПК с Arm, как Apple сделала со своими Mac? Платформа Qualcomm получит 12 ядер CPU и поддержку дискретных видеокарт"!

Причем эта новая архитектура Nuvia Phoenix разработана выходцами из Apple, которые организовали стартап Nuvia, - который в свою очередь в январе 2021 года купила Qualcomm - см.: "Qualcomm купит стартап Nuvia за $1,4 млрд. Он тоже выпускает процессоры".

В комментариях выше как раз говорится о том, что аппаратно эта поддержка и не нужна, все дело в программном обеспечении. Есть PCIe, через который можно данные отправлять на карту (как и любые другие данные на любой "приемник", вставленный в PCIe) и получать их оттуда.

С чем могу согласиться - если кристалл и система в целом не готовы и не спроектированы конкретно под этот сценарий, не получится использовать ту же RTX на все её 100%.

А в целом я почти уверен, что Apple до сих пор не сделала поддержку eGPU в том или ином виде, потому что не знает, как на этом они могут заработать )
Так-то можно взять условый Macbook с M1 Pro на максимальное количество ядер CPU, их будет хватать, а GPU усилить за счет внешних видеокарт, и в таком случае никто не будет покупать устройства семейства M2 ради дополнительных ядер GPU. На данный момент очевидно, что "купертиновцы" имеют деньги с прироста ядер GPU на своих кристаллах, что может вполне себе являться причиной для отсутствия поддержки внешних видеокарт :)

Я нашёл на других сайтах более понятный перевод и толкование слов этого Вице-президента Джона Тернуса и он говорит о том, что в чипе Apple M2 используется общая унифицированная память к которой имеют одинаковый доступ как CPU так и GPU, и именно поэтому в эту систему нельзя оптимально добавить дискретную карту с GPU-чипом к которому прикручена своя специальная графическая память, - к которой имеет доступ только этот GPU-чип.

Видимо там какие-то программные заморочки в ОС macOS с этой унифицированной памятью общей для CPU и для GPU.

Хотя я не совсем понимаю в чем тут разница, когда например AMD APU-чипы так же имеют на борту CPU и GPU, и они имеют доступ к общей памяти, но при этом на материнскую плату с APU по-моему можно воткнуть дискретную видеокарту!

Ну а пока по тестам говорят, что "Встроенная графика процессора Apple M2 Ultra оказалась лишь на 10 % медленнее RTX 4080 в Geekbench 6 Metal".

И в некоторых программах даже "M2 Ultra может тягаться со связкой из Core i9-13900K и RTX 4090, но иногда проигрывает в несколько раз. Опубликованы тесты нового ПК Apple", - то есть с лучшим ПК (Core i9-13900K и NVIDIA GeForce RTX 4090), что есть на рынке в этом сегменте.

Плюс ходят слухи, что что в разработке у Apple также находится ещё и двухсокетная версия Mac Pro с 48 ядрами CPU, и со 152 ядрами GPU, и 256 ГБ оперативной памяти — с двумя процессорами Apple M2 Ultra - см. статью: "А зачем вообще нужен такой Apple Mac Pro, если Mac Studio с теми же техническими параметрами стоит почти вдвое меньше?"

Гикбенч - так себе бенчмарк, особенно если пытаться его использовать для сравнения между разными платформами.

Sign up to leave a comment.

Other news