Pull to refresh

Comments 59

Мне кажется что очень скоро появятся конкуренты, никто не даст ТАК зарабатывать. Тот же Google может сделать свой TPU коммерчески доступным в розницу.

Все еще будет зависеть от брони на тсмц. Если нв на пару с каким нить эплом выкупит все мощности, то гугл хоть и сможет разработать, но произвести с той же себестоимостью вряд ли...

Кстати вот тут кмк может на сцену и Intel выйти со своей контрактным производством...

ну там же не одна линия на 3нм, есть и более старые линии... Конечно, вопрос эффективности, но он решается вопросом цены. Если я смогу купить нормальную железку за полцены мне будёт все равно, что она производится по "устаревшему" техпроцессу.

За полцены? Выходит, что nvidia будет делать 50% прибыли, а Гугл еле еле в ноль выходить. При таком раскладе nvidia ещё долго будет на коне.

UFO just landed and posted this here

Сопоставимые в игровых тестах железки AMD оказываются на 20-30% хуже в тупой арифметике, из которой и состоит как майнинг, так и работа ИИ.

UFO just landed and posted this here

У АМД нет cuda, что очень сильно печалит тех, кто не только в игры. И цена ниже видимо поэтому. Потому что за бОльшую рыксы даже геймеры брать перестанут.

Не только нет. AMD отозвала финансирование ROCm - прослойки для запуска CUDA софта на AMD хотя бы на Линуксе.

Так что я бы сказал "нет и не будет"

И фиг с ними. Тут у меня гораздо больше надежд на Intel. Производительность ядра для энтузиаста без штанов денег не так важна, как видеопамять, а видюха Intel с 24 гигами стоит почти в 2 раза дешевле, чем такая же от Nvidia. Кроме того, у Intel есть OpenVINO - навороченный и неудобный, но всё же заменяющий CUDA+PyTorch фреймворк, который реально есть и работает. Сам пользовал. Видел статью, что как минимум diffusers под него портировали.

А AMD... Это знаете как в ралли бывает: кто-то просто тормознул в повороте, кто то вылетел, а кто-то один красиво, технично и с шиком на полной скорости повернул не в ту сторону. Вот это AMD.

в том то и дело 24 гиг, но в 2 раза дешевле. это значит, что nvidia может ещё из воздуха деньги делать только благодаря имени, а конкуренты вынуждены срезать цены и работать с нулевой рентабельностью

есть ROCm. Проблема только в том, что только для Linux

Скоро будет под Windows, работают над этим. Но "скоро" у AMD понятие растяжимое.

Как драйвера на свой CPU допишут, так сразу займутся. Или сейчас уже не надо ставить драйвера на cpu от амд? (сарказм)

Рост акций это еще не заработок. Да и всего 30% же...

Рост акций это еще не заработок

Если не продавать, то рост акции является убытком, так как налоговая считает это именно заработком.

Зависит от страны, от владельца (юрлицо или физлицо), и от многих других факторов.

В России для физлиц считаются только закрытые сделки, купил за рубль, продал за два. С рубля разницы 13 копеек НДСа.

А если купил за рбуль, сейчас стоит два, но еще не продал -- то налоговая к такому человеку претензий не имеет.

Зачем Гуглу продавать процессоры, когда он может продавать почасовой доступ к этим-же процессорам через Google Cloud?

Вопрос цены. Гугл Стадия на схожей модели монетизации как-то не полетела.

Странно читать про везение и удачу. NVIDIA 16+ лет вкладывалась в высокопроизводительные вычисления, развивая архитектуру и программное обеспечение. В последние годы занялись аппаратной поддержкой ИИ. Теперь собирают заслуженный урожай. Причём здесь удача и везение?

Думаю что потому что создание удачного ИИ резко увеличившее спрос на их услуги - это не их заслуга.

Годы стремительного прогресса в сфере ИИ в целом, которые привели к "удачному ИИ" сейчас, не были бы возможны без Nvidia 🤷‍♂️

На этот прогресс работало много компаний и на мой взгляд он прекрасно реализовывался и без Nvidia. Вдобавок вендор-лок активно продвигаемый компанией скорее тормозил прогресс чем способствовал ему.

Аналогия: магазин продающий инструменты и еду в городке на Аляске в годы золотого бума. Конечно наличие такого магазина сыграет свою роль в открытии местной золотой жилы, но он вполне заменим и я думаю что здесь вполне правомочно будет говорить о "везении", ведь жилу могли и не найти.

Последний взлет ИИ относительно общепринято отсчитывается от 2012 года. Под собой имеет три крупных основания — накопление больших объемов данных, невозможных в предыдущие эпохи, развитие новых архитектур, давших новый толчок нейросетям и — очевидно, новое железо. Вот новое железо насколько я помню — это собственные TPU Гугла и Nvidia. На прогресс работало много компаний, но без NVidia он не реализовывался. Он мог бы возможно реализовываться, если бы не было вообще NVidia, а кто-нибудь другой бы подсуетился вовремя. Но это пачка сослагательных наклонений. Вишенка на торте это тензорные блоки начиная с 20хх семейства в десктопной линейке, но и до них уже много лет все сети считаются на GPU. И я согласен с стартовым коментом — странно привязывать последовательное развитие GPGPU как отрасли на протяжении многих лет к одному проекту.
Кстати 22 год, помимо chatgpt, это еще и резкий подъем среди рисующих сеток, которые тоже работают на тех же картах NVidia.

NVIDIA - не единственная компания делающая GPU. А привязка нейросеток именно к их железу обусловлена не столько достоинствами оборудования сколько вендор-локом. В их заслугах - то что они пришли на этот рынок первыми и делают объективно хорошее железо, но этого недостаточно для того чтобы утверждать что без них бы бума нейросетей не было.

Это на мой взгляд довольно странное рассуждение.
Компаний делающих GPU две с половиной. GPGPU как направление на популярном рынке создано nvidia (это не решающий фактор, но право первопроходца часто имеет некоторое значение)
Вроде бы никто не говорит, что без nvidia бума нейросетей не было бы вообще, я вроде это даже явно подчеркнул (и упомянул например TPU от гугла). Но сейчас очевидно, что бум нейросетей ретроспективно и по факту во многом связан именно с ними.
Про вендор-лок я вообще не понял, если честно. В какой момент и какой вендор-лок мог как-то повлиять на нейросети? Я не помню ни одного фреймворка железобетонно прибитого к nvidia, у большинства есть прослойка между железом, дающая как минимум возможность работать на CPU.
Если бы AMD представила что-то действительно сопоставимое с CUDA, возможно занялась бы оптимизацией популярных фреймворков для своих карт, всё было бы иначе (мне вот одно время казалось что прямой доступ с ssd мог перевесить на их сторону, дав несравнимый с бортовым объем дополнительной но медленной памяти)
По моему представлению, CUDA на всем времени своего развития была более человекоориентирована, чем все попытки сделать что-то подобное со стороны AMD. Например на том же рынке майнинга, где цепочка код-деньги сверхкороткая, в некоторые моменты у людей хватало сил и воли на оптимизацию именно для чипов AMD, когда их числодробительное превосходство было заметным и давало очевидный и быстрый профит. В нейросетях, где куда важнее быстрое прототипирование и отработка гипотез, а цепочка до прибыли ни разу не очевидна, я вот так сходу даже не вспомню, были ли случаи явной оптимизации под красных. Хотя сейчас судя по соседним статьям Лиза явно намерена дать бой. Посмотрим что выйдет. В любом случае исход этого противостояния будет выгоден конечным пользователям.

Будут ли у конечных пользователей деньги, после того, как их погонят с работы под лозунгом "ИИ может лучше!"? Ставка на ИИ с экономической точки зрения странная, потому что сокращает платёжеспособный спрос.

Класть асфальт и собирать окурки всё еще дешевле руками. Как и большинство другой не сконцентрированной локально работы в реальном мире.

А вы много видите тех, кого погнали с работы под этим лозунгом? Мне пока скорее ситуация видится как "те кто работают с ИИ окажутся в более выгодной ситуации, чем те, кто с ним работать не умеет и не хочет учиться".


Да, для кого-то это может оказаться неприятным (но даже вряд ли сколь-нибудь фатальным в массе). Но это история последних сотен лет развития цивилизации, и ничего нового тут нет. Люди умевшие считать только на счетах вытеснены людьми с калькуляторами, а потом и с компьютерами, это буквально пример в моей семье, и даже там он не был как-то ужасным.

Компаний делающих GPU две с половиной.
Это потому, что выход на рынок, где уже есть доминирующий игрок, крайне рискован в такой отрасли. Но свято место пусто не бывает же.

Это из классической истории когда кто-то годами трудится, совершенствуется, потом показывает результат, а ему «ну тебе и повезло», «это всё талант от рождения просто», «поймал волну». Подготовку и путь, увы, не видят.

Потому, что трудятся многие, а волну ловят лишь некоторые.

А ещё мне кажется что многие просто не любят учитывать или не замечают издержки и риски. Многие как правило только обращают внимание только на деньги которые отдают.

Классический пример - когда кому то что то делаешь он либо попросту возмутиться "да за что такая сумма? да за такой короткий срок? это же Х долларов в час! ЗА ЧТО?" либо пойдёт дальше и скажет "в изделии, на плате компонентов на игрек долларов!! ПОЧЕМУ весь заказ стоит десять-сто игреков???" и далее бесполезно объяснять что что-то принципиально новое обычно далеко не первой попытки получается идеально и отдаётся клиенту не все сделанные изделия. А ещё есть стоимость станков, оборудования, и минимальный объем у подрядчиков который у них надо делать чтоб получить скидку и тд. Да блин даже банально красивый и стильный корпус порой в разы дороже чем платы с электроникой.

А про ценность опыта и экспертизы я просто помолчу. Давно понял что в бизнесе заказной разработки просто надо выставлять цену, и самое ужасное и это начать оправдывать цену(детально расписывать например что куда включая риски) - такой ушат негодования словишь и порой публичный, что просто лучше не расписывать вообще.

Во-во, это как смотришь мужиков на ютубе "вот новая работенка, надо починить деталь - берем станок, тут вытачиваем, тут шлифуем, тут запрессовываем и готово - с вас дофига денег". Вроде все так просто выглядит, но просто оно у того кто умеет, имеет станков на много тысяч, все нужное оборудование, оснастку, правильные материалы и прямые руки. Ну да - при наличии таких вводных все несложно...

Одно никак не противоречит другому. Но никто же не утверждал, что достаточно просто везения, и можно ничего не делать. Просто реально часто так бывает, что без должного везения все старания идут в трубу. Это как музыкант без продюсера — работаешь в 10 раз больше за в 10 раз меньше денег.

. И достигла на этом капитализации в $178 млрд в 2018 году. Но почти все были уверены, что эта манна небесная скоро закончится. Что-то случится с Биткоином, или сложность его добычи перерастет возможности карт.

Так вроде уже лет десять как биткоин стали добывать только на ASIC? То есть и во времена первого криптомбума и во времена второго, биткоин уже никто на GPU не майнил, а майнили другие альтернативные криптокоины.

Но кто-то что-то все равно майнил на GPU. Кстати а кто производит ASICи точнее чипы для ASICов

биткоин да, а цены на видюхи держались из-за эфира.

Как написали, вторая основная криптовалюта эфир майнилась на видяхах. И как раз в конце лета — начале осени 22, насколько помню, они перешли с PoE на PoS систему, отвязавшись от генерации на картах. Отчего гигантское количество видях оказалось выброшено на рынок (на самом деле сброс начался чуть раньше, потому что планы были известны заранее). И подозреваю, что провал середины-конца года на графике с ценой акций скорее связан именно с этим. Но к концу года сетки (и, кмк, не толко chatgpt), новое поколение карт, которое не выглядело неудачным, не имело проблем с выпуском как предыдущее поколение (которое, кто помнит, из-за дефицита чипов на рынке можно было добыть с огромным трудом практически до самого его конца) и вытянули обратно наверх.

Это называется pump & dump. Нет, никаких претензий к деятельности компании нет. Но её деятельность лишь повод под шумок разогнать котировки.

Разве это странно?

Сейчас и выпускают доступные

(бесплатно или за символическую стоимость)

ИИ-продукты, целей у которых несколько. Например: обучение своего "движка",

предоставление возможности "стать на слуху" для конкретного движка.

Поиграются биржевые спекулянты в рост компании и бросят. После хорошего роста обычно бывает хорошая коррекция.

Интересно, как скоро игровая индустрия перейдёт от текущего графического рендеринга к использованию генеративных моделей (когда игровой движок выдаёт "промт" и парочку controlnet описывающую текущее игровое состояние а сама картинка почти полностью генерится с помощью модели, тренированой на студийном рендеринге)?

Это позволит убрать необходимость оптимизации 3D моделей и текстур, раз и навсегда решив вопрос с просадками производительности.

На генерацию тоже нужно тратить мощности.

Скорость расчета генеративной картинки в десятки и сотни раз ниже чем самый топовый на сегодня рендеринг в играх

DLSS это тоже генеративная картника, причём используется как раз для ускорения.

Если использовать генерацию в качестве основного метода то там будет вагон и маленькая тележка возможных оптимизаций.

При длсс картинка всетаки рендерится классически, а сеть ее просто апскейлит. Очевидно что для апскейлинга нужны на порядок меньшие мощности чем для генерации.

Скорее всего всё это будет воплощаться как раз через расширение возможностей DLSS - добавить ей возможность загружать свои тренированые модели для апскейла, добавить загрузку улучшенных LoRA уровней и персонажей, добавить учтение "промта" в виде игрового состояния - и тогда оно сможет выдавать почти идеальное 8к разрешение при реальном рендеринге 320x200 с каким-нибудь сумасшедшим FPS...

В этом пока смысла нет, точность имеющихся сетей (имеются в виду топовые сети) отстает от необходимых наверное на десятичные порядки

DLSS работает отнюдь не идеально (flickering, ghosting), поэтому смысл улучшать его есть. Например, можно передать ему информацию о том, что ты едешь в Cyberpunk в машине, поэтому надо использовать специализированный режим, убирающий ghosting от фар и выхлопной трубы - а это фактически и есть "тренированая мини-модель" и "промт".

Я говорю о том, что качество работы длсс сейчас и требуемое - это как сравнение телеги и ракеты.

Так что гиперприбыли Nvidia ничто не помешает.

Гиперприбыль это все же очень сильное преувеличение. Сейчас p/e порядка 200, то есть компания практически ни чего не зарабатывает.

Всё это дутое. Кто-то устраивает неадекватные байбэки, сливая прибыль и накопления, а кто-то хайпует на теме ИИ. Правда в том, что все эти компании не обеспечат и близко рост прибыли чтобы удержать текущую "стоимость".

А пик цены вообще был в 2000 году, до того как лопнул пузырь доткомов.

Как раз тогда они сделали сплит.

А вообще вы забыли сказать что NVIDIA уже была на отметке почти 800, а потом упала до 300, потеряв больше 60%.

А потом ей ПОВЕЗЛО, а не грамотный менеджмент или что-то такое, и она взлетела.

А про Intel как будто разом все забыли. Её отсутствие ощущалось особенно разительно по сравнению с предыдущими годами. Жизненной силой Computex были (и являются) небольшие производители устройств и системные интеграторы — компании, которые десять лет назад целиком вращались вокруг Intel. Сейчас о ней как будто даже и не вспоминают. Вместо этого все демонстрируют, насколько близко их продукты умеют взаимодействовать с сервисами и технологиями Nvidia. Для работы которых Intel больше не нужен.

Прощай, друг.

Не прошло и года, как "прощай, друг"?

Как же быстро вы хороните их.

Лишь бы ничего не случилось у TSMC, который и производит чипы NVIDIA.

А ведь у Интела была/был Larrabee... Куда всё делось?

Это кстати отличный вопрос. История с larrabee вообще максимально странная. Я даже помню как тут на хабре был ряд статей перед "выпуском", в том числе от людей непосредственно принимавших участие в разработке. Все ждали, ждали, ждали… и так ничего не дождались.
Разве что чуть позже на серверном рынке вышли очень загадочные xeon phi в которые видимо часть наработок пошла, но они были столь загадочны, что я даже не слышал про живые проекты на них (кроме суперкомьютеров)

Sign up to leave a comment.