Pull to refresh
7
0
Send message

Вы же обратили внимание на то, что они пообещали выпустить в опенсорс не саму ГигаЧат, а

модель ruGPT-3.5 13B, на основе которой был обучен GigaChat

Справедливости ради, мы не знаем сколько у 3.5 параметров. Насколько я помню последнее что они говорили -- это 175М, но для оригинальной ChatGPT. И при этом сейчас 3.5 по api продается в 10 раз дешевле чем было. Я не удивлюсь, если они смогли просто дистиллировать оригинальную модель и теперь там гораздо меньше 175М параметров.
Что, конечно, не умоляет заслуг Сбера. Требовать от них чтоб они с листа сразу сделали модель на уровне просто лучшей в мире, это как минимум наивно. Отставать на шаг-два от мирового лидера вполне ок. Судя по тому что они написали, кажется, что их модешь примерно на уровне Барда и Лламы сейчас. А размеры Сбера с одной стороны и фейсбука с гуглом с другой несопоставимы

Да, на 5-ом месте в паре тренер-клуб.
'to_coach_name', 'to_club_name' -- Leonardo Jardim, Monaco -- 1.404217 -- 40
То есть всего у него 43 трансфера на вход дороже $1 млн, из них 40 в Монако :)

Проблема в том, что игроки очень не любят такую отрицательную обратную связь. Потому что они в той или иной степени чувствуют, что их штрафуют (делают босса сложнее) за то что они прокачены (вложили время и деньги в прокачку) и наоборот.
А про Power Creep у Extra Credits есть отличная серия роликов www.youtube.com/results?search_query=extra+credits+power+creep
Там много разных вариантов выхода они предлагают (что само по себе говорит, что хорошего нет). Мне больше всего нравится подход с созданием новой «оси» (типа абилки) вместо просто увеличения статов, хотя у этого подхода наряду с классными плюсами, конечно, есть прям большие минусы (сильно «дорого» по ресурсам, наверное, главный из них)
К сожалению, мой конкретный опыт подсказывает, что в реальной жизни такой подход (вычисление мощности которое равно урон*ХП) подходит только на этапе прикидки. Да, наверняка картинки (спасибо за них) типа habrastorage.org/webt/cn/b-/16/cnb-167iht8au-zbtiak7hbxzv0.jpeg полезны для визуализации того что есть в игре (и выявлению того чего там не хватает). Но, во-первых, концепция мощности практически перестает работать как только в игре появляются абилки лечения (что вообщем есть практически в любой игре), а тем паче вампиризма (когда ваше (само)лечение зависит от нанесенного вами же урона, да пусть он и не так распространен в играх), а если в вашей игре есть еще и стан к этому всему, то приходится переходить с концепта статичной мощности куда-то в сторону динамической (в том смысле, что считать сколько урона можно нанести в ту единицу времени за которую вы можете снести в ноль healthbar противника), что уже во многом усложняет расчеты.

Если говорить про баланс (а на самом деле даже разнообразие и баланс), то мне ближе подход «осей». Когда выбираются несколько осей (например если это оружие: скорость стрельбы, скорость перезарядки, урон одного выстрела, АОЕ-шность, эффективная дальность и т.д.) и разные виды сущностей раскидываются по этим осям (если назначить осям условную цену, то можно на каждую сущность выделять определенное кол-во очков), то есть например одно оружие скорострельное, но с небольшим уроном и быстрой перезарядкой и т.д., другое с другими значениями тех же характеристик (с одинаковой суммой «очков» по ним). Так, на мой взгляд, легче создавать монстров, оружие, классы (или что там мы сейчас создаем), которые с одной стороны кажутся игроку разнообразными, с другой создают интересные пересечения и взаимодействия, с третей стороны благодаря тому, что кол-во очков по осям у них близкое, они в какой-то степени уже забалансены.

Ну а потом уже главное оружие геймдизайнера — итерации, они же плейтесты разных мастей :)
Но с главной мыслью автора статьи, что в балансе математики намного меньше, чем это, может, кажется на первый взгляд, я, конечно, абсолютно согласен
Еще раз. Речь не про мейл.ру
Речь про автора статьи, который написал отсебятину про слив базы и что это как-то связано с возможностью заходить по смс. И в оригинальной новости этого тоже нет.
Это не реклама мейл.ру, у них для этого, вроде, есть свой блог. Если на комменты посмотреть, то скорее антиреклама.
Это просто редактор «отработал инфоповод», отработал на от… странь. Странно, что такие статьи попадают в топ.
А каким образом одноразовые пароли по смс связаны защитой БД пользователей (я так понимаю это мысль автора, учитывая что в цитируемой статье ничего по поводу БД не видел)?
Думаю таких много, вот меня знакомый сделал себе нечто подобное. Система отслеживает новинки по рейтингу ожидаемости на кинопоиске и рассылает ссылки в канале телеграма, когда релиз в норм качестве выходит (правда получается не больше 3-4 в месяц, видимо хороших фильмов мало).
t.me/BBFeed
Я бы посоветовал курс fast.ai
В отличии от кроусейровских и подобных курсов тут идет сверху вниз. От «запустить несколько высокоуровневых команд» (в стиле scikit-learn) к большей детализации — как правильно готовить исходные данные, трюки как лучше учить, чтобы быстрее сходилось, как это все устроно внутри. Собственно про такие «детали» (с точки зрения курса) нейрон (точнее там говорится про активации), веса, сами сверточные сети, методы оптимизации (обучения) там говорится уже в середине курса, после того как несколько нейронок уже обучены, получены результаты из первой сотни участников kaggle и есть мотивация продолжать.
Да, возможно, я скорее про то, как немного усилий требуется с его библиотекой, чтобы вполне приличный результат получить. А дальше, да, конечно, каждая тысячная (вероятно) дается с большим трудом
Вот, кстати, python notebook с результатом 0,9327 (правда это данные с самой выборки, но насколько я помню у него практически такой же результат был).
С TTA, одна модель, resnet34, обученная за 16 эпох от Джереми Ховарда (у него хороший курс для начинающих fast.ai и одноименная библиотека)
github.com/fastai/fastai/blob/master/courses/dl1/planet_cv.ipynb
Курс (fast.ai) на мой скромный взгляд очень хороший, думаю многим подойдет как старт изучения этой области.
Но самое главное, что как раз с такими взглядами его автор и пытается бороться. С тем, что индустрия искуственно завышает порог вхождения в deep learning, что кажется без PhD и кучи прочитанных книг туда и смотреть не стоит, никаких практических задач без этого не решить. Если хотите прямую речь — вот, слова самих создателей www.fast.ai/2017/11/16/what-you-need (раздел The background you need: 1 year of coding).
Курс наоборот идет сверху вниз. От большей абстракции к меньшей, к деталям реализации и (в меньшей степени) мат. аппарату который за ним стоит.
Собственно немного про автора. Jeremy Howard — в течении нескольких лет был самым успешным участником соревнований kaggle (а потом кем-то вроде научного руководителя этого ресурса). Также у него несколько стартапов (как уже проданных, так все еще принадлежащих ему) в области машинного обучшения
Еще раз уточню — это не значит, что не надо знать основы, теорию, мат.аппарат и его особенности, просто ИМХО (и по мнению авторов курса) намного легче это изучать начиная с практических задач и спускаясь вниз к пониманию внутренних процессов там.
Про классическое машинное обучение (в смысле не нейронные сети) у него тоже курс есть, но про него не знаю, не смотрел.
Очень похоже, что то, что не может пока принести прямую выгоду в виде физических ресурсов, может быть как-то монетезировано за счет внимания.
Стоимость титульного спонсорства футбольшых клубов АПЛ десятки миллионов долларов (в год и каждому клубу). Как кажется уже порядок сравнимый с затратами (учитывая что это не единственный источник доходов) на подобные миссии. А что за это получает компания — большой логотип на самом видном месте майки (что помимо маек игроков предполагает и рекламу на майках купленных обычными болельщиками), всякие рекламные кампании с «участниками команды», ну и статус «официальный партнер клуба Х». Вещи, с берега, кажущиеся вполне применимыми к миссии типа международной лунной станции. Охват обеспечен по определению (рассказать о событии явно захотят все). Так что при должных шагах в этом направлении маркетинговый потенциал не кажется меньшим, чем у означенного клуба АПЛ.

Information

Rating
Does not participate
Registered
Activity