Ну так человеческая нейронка в сотни-тысячи раз больше текущих llm, вот если бы мы раздули их до размера человеческих и она бы не работала - это был бы аргумент
Чтобы понять что нас заменят достаточно просто пользоваться llm и видеть прогресс и немного понимать как это устроено, чтобы основать что предела нет. Пока мы упираемся в стоимость, что ограничивает размер модели и да ее размер пока значительно меньше размера нашей биологический нейронки, да, текущие llm особо никого не заменят, но очень глупо не видеть тенденцию, автору советую плотно поиграть с моделями разных поколений чтобы понять что его лошадь очень скоро начнет проигрывать безлошадных повозкам
Наброшу другую гипотезу что если бы муравьи за стеклом не просто бегали а про аналоги с зеркалом проходили ближе и пытались взаимодействовать с муравьем то и вел бы он себя также как с зеркалом, т.е. вывод эксперимента не верен
Наверное потому что прокачать сеть уровня чат жпт стоит десятки миллионов баксов и не каждый готов потратив столько - выложить сие бесплатно в сеть, второй момент что размер чат жпт больше 400 гигов, сомнительно что у вас будет столько оперативки чтобы запустить все это у себя локально и поиграться
вот уж точно чего не надо делать — так это рассказывать всем, это вроде как самый простой способ быстро потерять интерес. А вообще зачем заканчивать? лет 5 студенческих лет убил на игрушку и несколько не жалею, кайф от процесса отличный :)
Господа обиженные комментом настолько что не ленятся лезть в карму — можно немного комментов в чём я не прав? По моему тут черным по белому написано что настолько нужно было выпустить релиз (который по сути ни в какой спешке не нуждался) что решили не тестить после фиксов, т.к. могли найти еще баги и их бы пришлось править
Хрен с ней с кармой, просто интересно
Напоминает женские передачи про моду, где тётенька с умным видом рассказывает что в этом сезоне будет модным именно красное и именно с вот такими вот фентеклюшками
Это же пограничные случаи, а не правило, при этом никто ж не запрещает использовать ===
Думаю пасхалки есть в любом языке, просто в PHP их немного больше :)
Ну так человеческая нейронка в сотни-тысячи раз больше текущих llm, вот если бы мы раздули их до размера человеческих и она бы не работала - это был бы аргумент
Чтобы понять что нас заменят достаточно просто пользоваться llm и видеть прогресс и немного понимать как это устроено, чтобы основать что предела нет. Пока мы упираемся в стоимость, что ограничивает размер модели и да ее размер пока значительно меньше размера нашей биологический нейронки, да, текущие llm особо никого не заменят, но очень глупо не видеть тенденцию, автору советую плотно поиграть с моделями разных поколений чтобы понять что его лошадь очень скоро начнет проигрывать безлошадных повозкам
Почему в стоимости 1 токен равен одной английской букве, но 4 русским? Точно не наоборот?
Зачем платить за доступ к gpt3 если по сути он бесплатный?
Наброшу другую гипотезу что если бы муравьи за стеклом не просто бегали а про аналоги с зеркалом проходили ближе и пытались взаимодействовать с муравьем то и вел бы он себя также как с зеркалом, т.е. вывод эксперимента не верен
Так ничего не изменилось, чат все также кушает по 10000 символов за запрос, просто разбивает на запросы он сам
Если хотите выучить язык - прекратите учить правила
Возможно, есть пример в онлайне, где бот уничтожает тебя при этом объясняя как он угадал, кожаным мешкам свойственно играть паттернами
Наверное потому что прокачать сеть уровня чат жпт стоит десятки миллионов баксов и не каждый готов потратив столько - выложить сие бесплатно в сеть, второй момент что размер чат жпт больше 400 гигов, сомнительно что у вас будет столько оперативки чтобы запустить все это у себя локально и поиграться
На самом деле иногда не такой уже и плохой совет )
Хрен с ней с кармой, просто интересно
Думаю пасхалки есть в любом языке, просто в PHP их немного больше :)