Pull to refresh

Comments 75

Само наше восприятие реальности есть мутная jpeg-картинка самой реальности:)

Да ещё и бОльшая часть из кэша, плюс экстраполяции.

10 шакалов из 10!

Ну, учитывая, что 10! = 3628800, то 10 шакалов из 10! — это вполне себе хороший показатель 😅

10 шакалов из 10! — это один шакал из 9!

Из моей коллекции
Все знают, что большие команды работают медленнее!
Все знают, что большие команды работают медленнее!
Считать оно не умеет
Считать оно не умеет
Первая буква слова? Что это такое?
Первая буква слова? Что это такое?
14, 143... какая нафиг разница!
14, 143... какая нафиг разница!

Современные языковые модели научились очень достоверно имитировать студента троечника, сдающего экзамен. Что-то он знает, а остальное додумывает в меру своей фантазии.

Какая ещё фантазия у if {} else {}?

там маненечко посложнее ведь, не находите? Ну, то есть до какой-то степени, конечно, if/else, но не самым примитивным образом. Т.е. добраться до этих if/else - это еще суметь надо. И поэтому фантазией тут можно назвать (очень условно) облако текстов внутри которых моделька умеет генерить последовательности (с сохранением вероятности появления следующего слова, конечно).

Фантазия есть даже у функции get_random_character(). Слышали про теорему о бесконечных обезьянах? Теоретически достаточно простого генератора случайных символов, чтоб с некоторой вероятностью получить любой мыслимый шедевр, который только может существовать. На практике мешает ничтожно малое значение этой вероятности, но его ведь можно повысить. Скажем, подсчитать частоту встречаемости символов в реальном тексте и генерировать их случайно на основе этой частотной таблицы (допустим, в 10% генерируем символ "а", в 15% символ "о" и т.д.).

Так вот именно это и представляют собой нейронные сети! Сами по себе они возвращают не текст, а вероятностное распределение сложной формы. По которому уже другой алгоритм (сэмплер) рандомит (да, именно рандомит, а не распаковывает!) символы. И если достаточно долго жать на кнопку "генерировать", то в выхлопе нейронки рано или поздно встретится любое желаемое сочетание символов.

Именно поэтому наиболее продуктивный метод использования нейронки - генерировать текст небольшими кусочками, по предложению. И жать retry-retry-retry до тех пор, пока полученный кусочек нас не устроит, после чего переходить к следующему предложению.

При этом очень чётко видно, как идёт развитие нейронок. При использовании GPT-2 всё время происходили затыки, когда даже из 100 нажатий не получалось хорошего предложения - либо мусор, либо банальности. А вот уже современные нейронки в среднем за 7 попыток уже выдают удачный вариант, который даже живой автор не сразу бы придумал.

В итоге основной навык оператора такой нейронки - беглое чтение, чтобы быстро (мгновенно) оценивать выхлоп, выбирая подходящее. И это работает, в том числе при написании художественных текстов. Нейронка очень сильно ускоряет процесс. И она настолько креативна, насколько хорош оценивающий её выхлоп живой автор.

Когда-то делал такой алгоритм на рандоме, который генерирует нечто, действительно похожее на текст:

acterroady a ding with hat his ents and aret untimerlince merlinceed tookinger long but shursont youve on wor deablooking and amatchis lins i bet be loverlin beelin hen dragre and was gide entimeth plares ath his clospears boned him it ah gle caught as nothis

(здесь, правда, без знаков препинания, но с ними тоже работает неплохо)

Эм... То есть здесь буквально рандомную функцию наделили фантазией? Жесть...

здесь буквально рандомную функцию наделили фантазией?

Ну, что поделать — человеку (не в смысле конкретно предущему оратору, а в смысле виду Homo Sapiens) скучно, грустно и очень хочется маленького братика (по разуму), а кошечки-собачки приелись, вот и наделяет.

А ещё очень хочется, чтобы маленький братик делал за него всю скучную работу — ну, типа там,

в школе учился...

А ещё очень хочется, чтобы маленький братик делал за него всю скучную работу

Так он и делает. Причём не только скучную, но и ту работу, которую без него я не могу выполнить никак, ни в каком виде. Скажем, рисовать я не умею совершенно, а со Stable Diffusion могу делать рисунки, для создания которых своими силами мне пришлось бы предварительно потратить минимум 5 лет на учёбу (и то не факт, что достиг бы такого уровня).

Увы, человек, если он не супер-гений, не может быть одновременно и композитором, и художником, и сценаристом, и 3D-моделлером, и диктором, и программистом на уровне, сопоставимом с тем, что показывают современные нейросети. То есть можно сказать, что любого отдельно взятого человека нейронки наделяют способностью делать вещи, которые он раньше делать не мог вообще.

Ну и кем надо быть, чтоб от этого отказываться, да ещё и гордиться этим отказом?

Выхлоп, выхлоп, выхлоп, выхлоп... А слово "результат" почеиу перестало устраивать?

Больше букв. К тому же слово "результат" не самодостаточно - в значительной части случаев его приходится дополнять ещё одним существительным, например "результат работы".

Очень большие сомнения в "фантазии". Из нескольких случаев попыток использования подобных систем, ни разу не был получен точный ответ на поставленный вопрос, при этом в ответах явно были тупо копии чужих текстов, безо всяких домысливаний. Единственная помощь, полученная от то ли ChatGPT, то ли от Bing AI (не помню, как эта ерунда называется), - это пара ссылок, где так же не содержалось точных ответов, но было описано направление решения проблемы.

Разочаровался.

Вот, он ведь сказал про аллитерацию, чего вы ещё от него хотите?

Как тут один из предыдущих ораторов отметил, "если достаточно долго сидеть на берегу реки говорить нейросети, что её ответ неправильный, то она выдаст правильный ответ".

Что, конечно, отлично работает, когда мы уже знаем, какой ответ правильный — но тогда нафига нам нейросеть?

Так ведь раньше для этого требовалось 1000 попыток для выдачи правильного ответа, потом 100, сейчас 10. Таким образом это "Нафига нам нейросеть" перетекает в "Почему ты до сих пор не используешь нейросеть"

раньше для этого требовалось 1000 попыток для выдачи правильного ответа, потом 100, сейчас 10.

И в очередной раз повторюсь: "Асимптота – прямая, к которой график функции бесконечно приближается всё ближе и ближе по мере удаления его переменной точки в бесконечность, однако никогда её не достигает".

А ещё это может быть S-кривая. А ещё люди могут тупеть в среднем, потому что значительная часть их нужд заменяется технологиями.

А ещё это может быть S-кривая

Молитесь, чтобы не была. Потому что тогда

всё будет очень печально

Двенадцать камер следили за каждым движением Двара Эйва. Передача транслировалась по всей обитаемой Вселенной.

Вот он спаял золотом последний контакт. Вот он разогнулся и кивнул Двар Рэйну. Вот подошел к главному переключателю. К тому самому, который через несколько минут объединит вычислительные машины всех девяноста шести миллионов обитаемых миров в одну — самую мощную, самую мудрую.

Двар Рэйн призвал бесчисленных зрителей смотреть и слушать и сказал:

— Пора, Двар Эйв!

Двар Эйв тронул переключатель.

Послышалось мощное гудение — это пульсировала энергия девяноста шести миллионов планет. По огромному пульту забегали огоньки.

Двар Эйв отошел от пульта и глубоко вздохнул.

— Тебе, Двар Рэйн, принадлежит честь задать первый вопрос, — объявил он.

— Благодарю тебя, — ответил тот. — Я задам главный вопрос. До сих пор ни один кибернетический мозг не мог дать на него прямого ответа. — Он подошел к пульту. — Есть ли Бог?

Мощный голос ответил без малейшего промедления:

— Да. Теперь есть.

Ужас исказил черты Двар Эйва. Он метнулся к переключателю.

С безоблачного неба ударила молния. Она намертво заварила главное соединение и испепелила первого богоборца.

А ещё люди могут тупеть в среднем,

А вот это *особенно* есть

Задача: "У противоположных стен спортивного зала шириной 50м стоят шеренга мальчиков и шеренга девочек. Каждую минуту они проходят половину расстояния, отделяющего их от центральной линии зала. Когда они сойдутся?"

Ответ физика: "Никогда".

Ответ математика: "Через бесконечный промежуток времени".

Ответ инженера: "Через 15 минут они будут достаточно близко для любых практических целей."

Ответ программиста:

Всё не так однозначно.

Поскольку упоминаются конкретные девочки и мальчики, принять их за материальные точки было бы некорректным. В первом приближении можно принять тело человека в горизонтальном сечении прямоугольником толщиной 15 см. В условии задачи сказано, что шеренги стоят "у" стен, то есть координаты задних границы из тел равны координатам стен, каковые по условию равны -25,00 м и +25,00м. В условии задачи не определено, как следует измерять расстояния, наиболее логично в качестве текущей координаты использовать координаты центров упомянутых прямоугольников. Тогда, итерируя, имеем:

t = 0; Xм = (-2500+7.5) = -2492.5; Xд = (+2500-7.5) = +2492.5;

t = 1; Xм = -2492.5 / 2 = -1246.25; здесь и далее Xд = -Xм

t = 2; Xм = -623.125

t = 3; Xм = -311.5625

t = 4; Xм = 155.78125

t = 5; Xм = 77.890625

t = 6; Xм = 38.9453125

t = 7; Xм = 19.47265625

t = 8; Xм = 9.736328125

После чего дальнейшее сближение станет невозможным, так как на следующем шаге упомянутые прямоугольные сечения пересекутся; в зависимости от принятой модели коллизий могут начать происходить непредусмотренные эффекты. Так что ответ "через 15 минут..." фактически неверен: "достаточно близко для любых практических целей" они будут уже через 8 минут, после чего сближение вынужденно прекратится.

Или, резюмируя вкратце, "Вы в корзине воздушного шара".

"А Вам какой ответ нужен: быстрый или фактологически правильный?" (с)

Я только после последнего ответа осознал, что там действительно все словаю на П. О_о

Теперь докажи что ты не робот.

Эх, молодьож... Мы составлением "рассказов на одну букву" в школе развлекались. "П" — предоминатно продуктивная, поскольку позволяет применять предлог "по".

Вас не смущает что используется gpt35 версия, которая по техническим причинам даже близко к человеку по способностям не подошла?

А Вас, я так понимаю, не смущает, что за право наглядно продемонстрировать, какая гадость эта заливная рыба поиграться с какими-то "более современными" сетями просят уж если не номер кредитной карочки, то какое-то совершенно неприличное количество личной информации? Или Вы из тех, кому скрывать нечего?

Ой да неужели, вы обижаетесь что за использование нейросети, почти наверняка стоимостью в миллиарды долларов, с вас требуют чуть чуть денег?

Если же вам дают что то бесплатно с лимитами, наверное хотят защититься от мошенничества и обход этих лимитов?

И да, санкции никто не отменял.

p.s. openai только что закончила демонстрацию своей gpt-4o. Обещают постепенно ее бесплатно раздавать, видит, читает, слушает, говорит, в реалтайме (2сек задержка) в т.ч. работа с кодом, скачок качества по всем тестам и т.п.

"Чуть-чуть денег" с меня просят не за "использование нейросети", а в попытках показать свой товар лицом. (Правда, почему-то то, что заявляют как лицо, обычно оказывается другой частью тела). Нет, уважаемые, за "посмотреть" на вот это самое я платить не собираюсь.

Мне, например, не нужен инструмент, который работает правильно в 90% случаев. Мне нужен инструмент, который не работает неправильно в 99,99999999% случаев.

И да, санкции никто не отменял.

А когда США ввели санкции против своих собственных граждан? Я что-то пропустил?

только что закончила демонстрацию своей gpt-4o.

Ну да, в контроируемой обстановке. Так в том-то и дело, что я буду задавать не те вопросы, где уже понятно, что оно сработает нормально, а вопросы с подвохом.

А если за все попытки платить, то получается как в той истории: там, где не сработало, там вернули деньги и остались при своих; а там, где сработало — там чистая прибыль.

если вы гражданин сша, то вы должны помнить что в этой стране кредитная карта давно стала отличным идентификатором

про kyc слышали?

p.s. про инструмент со 100% надежностью, а у вас его не было раньше, нет и сейчас, но появился новый интересный, с интересными возможностями и да проблемами тоже, вам не нравится не пользуйтесь, никто же не заставляет!?

Но вы сокрушаетесь что вам не дали попробовать бесплатно и анонимно? не в той стране родились. Тем более, полагаю один из основопологающих способов оплаты в данном случае как это было с chatgpt35 - это натурой. Товаром является пользователь - компания openai собирает высококачественные данные от своих клиентов чтобы улучшить модель еще на несколько процентов (так RLHF использовалась чтобы из 3.5 сделать 4 версию, теперь что то похожее будет использоваться для мультимодальной модели)

если вы гражданин сша, то вы должны помнить что в этой стране кредитная карта давно стала отличным идентификатором

Во-первых, нет. Например, жена постоянно ходит в магазин с моей кредитной картой, и никто ей полслова не говорит — имена никто не сверяет, а покупки как минимум до 500 баксов отлично проходят. Если бы это была не жена, а условный злоуышленник, который тиснул у меня карту, то он точно так же смог бы что-то купить, а я бы об этом узнал только сверив выписку из банка.

Во-вторых, мне кажется, Вы начинаете понимать, почему я не хочу платить за право попробовать это самоё LLM.

про инструмент со 100% надежностью, а у вас его не было раньше, нет и сейчас

Да шито ви такое говорите. У меня есть голова, высшее образование и справочники. По опыту — 100% надёжность: ещё не разу не подвели. Если у Вас не так — ну что ж, примите мои соболезнования.

полагаю один из основопологающих способов оплаты в данном случае как это было с chatgpt35 - это натурой

Вооооот. И отрицательные результаты (которые я гарантирую) — они гораздо важнее, чем положительные, потому 100500 пеовлкдассников, задающих вопросы типа "сколько будет 2*2" и радуются ответу "4" сделают для дообучения модели гораздо меньше, чем я, который будет задавать креативные вопросы с не менее креативными подвохами. Тут уж скорее они мне платить должны, за креативность.

У меня есть голова

эта голова в принципе не может переработать в разумные сроки сотни мегабайт сложных текстов, притом что вопрос анализа какой-нибудь мелкий и скучный, а потому еще раз, и еще,.. А gpt (а точнее rag) может, и используют.

Никакими другими способами работать с данными на таком уровне машины не могли, теперь могут.

И да, gpt по качеству ответов по некоторым задачам такого уровня давно уже обошли человека... или вы готовы посадить 1000 человек на эти задачи? Стоить это вам будет очень и очень дорого, а я лучше gpt воспользуюсь.

давно уже обошли человека...

... вот только проблема понять "это оно сейчас правильно ответило, или так, нагаллюцинировало?" никуда не делась.

Я же уже не раз и не два пример приводил:
А что было на самом деле, можете в Википедии посмотреть.
А что было на самом деле, можете в Википедии посмотреть.

ХЗ, даже тупой майкрософтовский copilot (основан на чем то типа gpt3,5) с первого раза ответил.

Это очень простая задача, поиск по вики особого интеллекта не требует.

Почему все в качестве доказательства отсутствия интеллекта, пытают модели, без поискового плагина, именно поиском по фактам. Большие gpt создавались не для копии интернета и знаний, а как вполне себе успешная попытка построения модели интеллекта, путем скармливания мусорных и не причесанных (это ключевой момент) данных для обучения модели с архитектурой encoder-decoder, она в принципе не должна факты выдавать верно!

Визуально это видно по генерации картинок stablediffusion, особенно когда генерируют видео, видно что модель поняла принцип, но детали на соседних кадрах шумят и постоянно меняются, то же происходит и со знаниями!

Чтобы модель не глючила используют RAG. Поиск нужных данных каким-либо методом и подмешивание их в контекстное окно. В пределах окна модель вполне себе обучаема.

вполне себе успешная попытка построения модели интеллекта

Ну да, ну да. Успешная. Интеллекта...
Считать слова оно умеет. Задание оно не забыло. Но связать два факта между собой у него по-прежнему не получается.
Считать слова оно умеет. Задание оно не забыло. Но связать два факта между собой у него по-прежнему не получается.

В такой ситуации древние произносили Dixi и гордо удалялись в закат.

нет смысла говорить с тролем, видно же что специально

— Робот, выкопай 20 ям!
— Готово, хозяин! (показывает 17 ям)
— Робот, сколько тут ям?
— 17!
— А я сколько просил выкопать?
— 20!
— Ну и...?
— Задание выполнено, хозяин!

В принципе тут больше говорить не о чем. Если Вы свою повседневную работу так выполняете и считаете, что всё нормально, а Ваш начальник — тролль, то я удивляюсь, как Вы ещё не уволены. А вот я Вас на работу не возьму, даже и не просите.

Вот омни версия.

Напиши рассказ из 20 слов, чтобы все слова начинались на букву П. Пронумеруй слова для проверки

Конечно. Вот рассказ из 20 слов, чтобы все слова начинались на букву "П":

Петя, прыгнув по пенькам, принёс пакет. Пакет полон пирогов. Паша постоял, подумал, потом пошёл. Пироги приятно пахли, Петя поделился.

Вот пронумерованные слова:

  1. Петя,

  2. прыгнув

  3. по

  4. пенькам,

  5. принёс

  6. пакет.

  7. Пакет

  8. полон

  9. пирогов.

  10. Паша

  11. постоял,

  12. подумал,

  13. потом

  14. пошёл.

  15. Пироги

  16. приятно

  17. пахли,

  18. Петя

  19. поделился.

Получилось 19 слов. Дополним:

Петя, прыгнув по пенькам, принёс пакет. Пакет полон пирогов. Паша постоял, подумал, потом пошёл. Пироги приятно пахли, Петя поделился пирогами.

Пронумеруем:

  1. Петя,

  2. прыгнув

  3. по

  4. пенькам,

  5. принёс

  6. пакет.

  7. Пакет

  8. полон

  9. пирогов.

  10. Паша

  11. постоял,

  12. подумал,

  13. потом

  14. пошёл.

  15. Пироги

  16. приятно

  17. пахли,

  18. Петя

  19. поделился

  20. пирогами.

Мне, например, не нужен инструмент, который работает правильно в 90% случаев. Мне нужен инструмент, который не работает неправильно в 99,99999999% случаев.

А если такого инструмента нет, то что тогда?

А если такого инструмента нет, то что тогда?

Тогда в школу надо, учиться...

А поисковыми системами вы пользуетесь? Какая у них точность?

Прошёл всего день и за более качественную модель уже ничего не требуют, вот это прогресс :)

UFO just landed and posted this here

Большинство ии моделей мыслят на английском (Есть статьи подтверждающие мои слова), полагаю поэтому ChatGPT не смог удовлетворить запрос. У меня такая же проблема при создании сочинений размером ~200 слов, вот только когда я прошу 200 слов он мне выдаёт 150-160, то есть отклонение где то 20%-25%, что не соответствует моему утверждению. Возможно также имеются иные причины данного явления.

Чатгпт - это гугл сёрч без рекламы (пока).

К середине статьи нарастает ощущение будто текст тоже ChatGPT писал)

Учитывая, что GPT-3 не сильна в предмете, изучаемом в начальной школе, как же объяснить тот факт, что иногда она тексты настолько хорошего качества, что может потягаться со старшеклассниками?

Особенно вот это предложение понравилось, полез в источник, там всё нормально, автору перевода отправил сообщение, но «осадочек остался».

Это точно. Готовый пример того, насколько плохо автоматический перевод соотносит контекст с уместным выбором перевода. "Мутная копия" - это воспринимается скорее как "сомнительная копия". Зато в вышеприведенной статье https://habr.com/ru/articles/775788/ все точненько, и копия там "заблюренная". Живой человек писал!

Обычная демагогия

Честно придолбались: представьте инопланетянин, который прочёл весь интернет, сколько понял, и по памяти с вами общается, на вашем языке и вашей логике. И даже ошибки исправляет и делает примерно как человек.

Вот это и будет llm.

С оценкой "троечник" в корне не согласен. Уже выше отличника. С учётом того, что по всем предметам сразу подготовился.

Кстати да, llm в этом смысле очень похож на "китайскую комнату", очень классно описанную в "Ложной слепоте" Уоттса.

Воспринимаю чат гпт как очень умный поисковик.

и в этом он работает хуже всего ;) собственно в этом особенность работы gpt моделей, они трансформеры - преобразование одной информации в другую. Факты - их слабая сторона.

Как и логика. В логику они вообще очень слабо умеют.

Современные поисковые системы настолько деградировали, что даже такой неточный поиск с кучей бредовых галлюцинаций составляет им достойную конкуренцию.

Уже хотя бы тем, что нейронки позволяют уточнять запрос в несколько итераций и исключать из выдачи ненужное. А покажите мне хоть один современный поисковик, где осталась бы функция "искать в найденном". Или такой, который бы позволял исключать из выдачи страницы с определёнными ключевиками.

Уж и не говорите-ка. В лихие 90-е, чтобы найти необходимую информацию, нужно было очень точно написать запрос. У меня получалось, ко мне очередь стояла на написание запросов. Потом эти поисковики начали умнеть, и решать за меня, что мне нужно. Теперь моё умение писать формальные запросы не помогает! Я не могу найти то, что мне нужно!

Абсолютно так! Сейчас в поисковиках значительно больше выдается ссылок на коммерческие предложения, чем на то, что я ищу. Ко мне тоже раньше когда-то (в конце прошлого - начале этого века) часто обращались с просьбой что-то найти в интернете, а я вовсю пользовался языком запросов в поисковиках и всегда достигал успеха. Потом неск. лет спустя какое-то время все поисковики выдавали большое количество мусорных ссылок на оптимизированные по ключевым словам страницы сайтов (помните ведь, тогда были важны количество посетителей сайтов и рейтинги сайтов в поисковиках, от увеличения которых поднималась к первым местам позиция в поисковой выдаче). Позже поисковики смогли избавиться от SEO-оптимизаторов, но выдача поисковиков постепенно перешла в коммерческое русло (и чем дальше, тем больше), что мы и видим в настоящее время.

Может смотря что искать? Я лично намного быстрей находил нужную информацию с GPT 3.5, чем поиском гугл. Крайний раз пробовал найти чем болеет мой комнатный цветок, так гугл выдвал один "мусор" (тонны информации которую очень трудно фильтровать), когда как с уточняющими вопросами GPT справился довольно быстро. Что потом, по названию болезни, гугл подтвердил картинками.

В одной из серий "Мира Дикого Запада" был сюжет о том, что сущность любого человека можно сжать до размеров обычной книги. И потом можно создавать копии этой "книги", чтобы воспроизводить личность человека в искусственных телах или виртуальных мирах.

сущность любого человека можно сжать до размеров обычной книги.

Есть такое

Тиану окутало мерцающее розовое свечение. В воздухе возник странный
нежный запах. Потом сияние померкло — и розовое платье из парчи
осело на пол. На нем что-то лежало.

[...]

Трикс, бережно державший в руках небольшую, переплетенную в светлую кожу книгу с инкрустацией из слоновой кости, складывающейся в название "ТИАНА", вздохнул и открыл ее на первой странице. Прочитал: "Княжна Тиана появилась на свет в половине четвертого утра, чем доставила изрядные неудобства своей матери, до полуночи танцевавшей на балу...

( Сергей Лукьяненко. "Недотепа")

Хотелось бы нейросеть, умеющую "augment compression/decompression", умеющую развернуть из такого "мутного" архива больше, чем в нем есть изначально )

Такое возможно, для этого галлюцинации должны быть более правдоподобными)

Разумеется возможно, и я знаю примеры ))
Но пока этим сеткам надо ЗП платить...

Хм, пошел с примером в 4. 425-855472+351*31 - вряд ли на таком происходило обучение.

Прекрасно выдал ответ, 844166, пошел смотреть в анализ, как он к этому пришел - посчитал на питоне))

3.5 не предложил анализа как он это считал, но расписал длинным ответом и тоже пришел к верному результату.

Развиваются железки...

И правда, только что проверил! Странно - пару месяцев назад проверял тот же GPT3.5 на математику, работало ненадежно.

Плагины добавляют. Но ессно выдают это за "ии", ибо это маркетинговое запудривание мозгов, сам же принцип работы - утаивается. А под капотом - пара десяток программистов прикручивают плагины. Как у этих индусов.

https://habr.com/ru/companies/regionsoft/news/547764/

Мне кажется, с математикой это намного правильнее, чем использовать LLM.

Помню, я и сам этим делом увлекался в конце прошлого - начале этого века (в эпоху DOS), писал программы на Turbo Pascal по моделированию простых нейросетей в неск. слоев (только не всегда хорошо получалось с их обучением), также использовал готовое ПО для экспериментов. В частности, например, обучал нейросеть таблице умножения (сначала 10х10, потом 100х100); и нейросеть, не зная принципов арифметики, по минимуму введенных обучающих векторов с множителями и результатами умножения находила приближенные ответы к др. множителям; и чем больше введено обучающих векторов (а также чем равномернее распределение выборок), тем более точные получались результаты. То же самое - с курсами валют по датам: вводил выборочно, а потом м.б. получать примерные курсы валют за промежуточные дни, и даже предсказывать будущие, исходя из вводимой даты (день, месяц и год) и дня недели. Интереснейшая была тема. Хорошие были времена!

И сейчас иногда развлекаемся с нейросетями (онлайновыми и оффлайновыми) типа ChatGPT, Stable Diffusion, Kandinsky, Шедеврум и пр. Нейросети сейчас внедряют где только можно, даже в браузеры, в т.ч. Яндекс.Браузер.

В писательском мастерстве нет ничего магического или таинственного, но оно не сводится к такой простой операции, как просто положить имеющийся документ под крышку сбоящего ксерокса и нажать «Печать». Возможно, в будущем будет создан такой ИИ, который сможет писать хорошую прозу, опираясь только на собственное мировосприятие. Этот момент действительно будет эпохальным, но пока до него ещё очень далеко, и пока даже невозможно обозначить сроки, когда это случится. Но, пока этот день не наступил, уместно спросить: а так ли полезен инструмент, который просто перефразирует Веб?

Советую всем к прочтению книгу Лейбера Фрица "Серебряные яйцеглавы" (1961), в кот. рассказывается о машинах-словомельницах, предназначенных для написания книг, а писатели - люди, которые их обслуживают, запускают на них процесс написания книг. Книга написана в далеком 1961г., но как хорошо объясняет суть работы современного ЧатГПТ! И как бы мы в будущем не пришли этому. Цитата из этой книги:

Отец. Сейчас же прекрати! Видишь ли, существует множество способов рассказать одну какую-то историю.
Сын (продолжая уныло пинать машину). Да, папа.
Отец. Каждый способ определяется выбором слов. Когда первое слово выбрано, остальные должны ему соответствовать. Они должны нести одно какое-то настроение и создавать нарастание напряжения с микрометрической точностью… Что все это значит, я тебе объясню в другой раз…
Сын. Хорошо, папа.
Отец. В словомельницу закладывают общий план книги, и он поступает прямо в ее электронный мозг — очень большой, даже больше, чем у твоего папочки! И она выдает первое слово наугад. На техническом языке это называют «снять козырь». А иногда первое слово в нее закладывает программист. Но когда словомельница выбирает второе, оно должно по настроению точно соответствовать первому — как и третье, и четвертое. Если заложить в нее один план и дать сто разных первых слов — по очереди, разумеется, — она напишет сто совершенно разных книг. На самом деле это гораздо сложнее и недоступно пониманию маленького мальчика.
Сын. Значит, словомельница рассказывает одно и то же, только разными словами?
Отец. Ну, в общем, пожалуй, да.
Сын. По-моему, это дурацкое изобретение.

Sign up to leave a comment.

Articles