Pull to refresh

Comments 109

Да ничего хорошего. Сегодняшний интернет загажен копирайтерами. Завтрашний интернет будет кратно больше загажен нейросетями, которые учились на статьях копирайтеров.

Да, хорошие статьи надо ещё поскать. Например захочешь найти какую нибудь специфическую информацию про встраиваемые системы, а там рассказывают всю историю со времен попа гороха, и все варианты от арифмометра до суперкомпьютера. Сразу видно рерайтер нарерайтил.

Про звукоизоляцию вообще кошмар, ни одной статьи от человека

😄точно сказано! Хочется видеть ответ на вопрос сразу, а в итоге находишь его в последнем абзаце на двух строках, после нескольких страниц описания про жили-были 😀

Ну так и в браузере будет встроена нейросеть которая из входящего шума будет генерировать осмысленный контент, фильтруя мусор

Зачем в браузере? В поисковике. Бинг - на грани релиза.

для поисковика нужен интернет. А в браузере и офлайн работать сможет.

Это как так офлайн? Ему тогда всю базу знаний у вас на компе хранить придется

Это да, но хз насколько она сожмётся для нейросети. Чтобы ответить на вопрос: что показывали в аватаре, не обязательно хранить сам фильм.

А чтобы ответить на такой вопрос по каждому существующему фильму, это уже надо хранить чуть больше информации. А чтобы ответить на вопросы по актерам - еще больше. Но мы ведь понимаем, что одними фильмами ограничиться не удастся :)

Тут хоть как сжимай, информации будет целый вагон. И она будет регулярно пополняться.

Более того, являясь владельцем такой базы знаний, вряд ли кто-то вот так просто отдал бы ее на растерзание любому желающему. Кто владеет информацией, тот владеет всем.

Будет из входящего шума генерировать конденсированный мусор.

Смотрите дальше, работа подобных копирайтеров просто обесценится и потеряет актуальность в виду бессмысленности - новые поисковые движки вероятно будут не выдавать в выдаче подобные ресурсы.

А я вот не понимаю, сможет ли нейронка определять что контент сгенерирован нейронкой?

Коротко: пока - да.

К примеру нейронки генерируют предложения примерно одинаковой длины (это самая примитивная эвристика).

В целом со временем будет все сложнее отличить (особенно на популярные темы, особенно если ты не знаешь тему). Т.е. если ты досконально разбираешься в теме, то ты сможешь понять где лажа, но зачем знающему человеку читать такое (он и так в теме)?

Определять будут так же люди, а нейронки учится. Опять же, спрос рождает предложение - кто заказчик этих "статей" и что он с них получает? Плату за рекламу. Кто будет в таком случае платить за рекламу которая показывается в генерируемом мусоре? Мало кто захочет за это платить. а значит продавцам рекламы надо различать ресурсы где их реклама будет показываться чтобы клиент не ушел. Сейчас люди платят за рекламу генерируемую ботами, просто потому что даже не задумываются о качестве покупаемой услуги. В случае нейронок возможно что то изменится, а может и нет.

Как говорят - рыночек порешает как это будет.

А я вот не понимаю, сможет ли нейронка определять что контент сгенерирован нейронкой? 

Хмм.. Сможет ли программа определить что другая программа остановится или нет? Кажется Тьюринг уже ответил на этот вопрос..

Ничего не изменится. Все также будут ресурсы которым ты доверяешь и те, которым не доверяешь.
Интернет уже очень давно огромная помойка с отдельными алмазиками. Ну стала помойка больше... Алмазики никуда не делись.

Будет сложнее отличить настоящие алмазы от поддельных.

Нет не будет. Также как сейчас. Есть условный хабр, в нем 99% технических статей годных. Совершенно не важно с помощью каких инструментов они написаны. Если качество начнет падать - значит хабр алмазиком быть перестанет.

Мне кажется, вы пропустили слово "не" перед словом "годный".

Но, в целом, мысль, на мой взгляд, верна. Искусственная или естественная нейросеть - не имеет значения. Важно качество подачи технического материала, его уникальность, применимость на практике.

Я, кстате, почему то, прихожу к таким же выводам!

Есть одна вещь которую не сможет сделать, эта вещь в ютубе называется 15 фактов Корана аль Фатиха. Никто не может повторить такое

Хорошая попытка, но нет..

Интернет давно уже теряет статус источника информации обо всём и всё быстрее становится похож на эффективный инструмент совершения покупок. Ну хорошо, не сам Интернет, а поисковики и контент, который они показывают в выдаче.

"обзорные статьи" от нейросетей или новостные выпуски от редакции Хабра - не сильно отличаются, поэтому собственно это и возможно. Нормальные статьи класса хабрторт все равно редки и неросетям до них еще очень далеко.
Поэтому я не очень понимаю удивления, если такие статьи будут попадаться.

А вот если такие статьи будут получать по 50+ лайков, это уже будет вызывать напряжение. Но я не думаю что это вероятно.

Зададим простой вопрос: для чего пишутся статьи? Например, статьи о насекомых, написанные представителями хостера и т.д. И зная ответ на этот вопрос совсем несложно представить генерированные статьи с полусотней лайков...

Ну я вот писал статьи чтобы поделиться своим, чтобы получить людей, вовлеченных в мои интересы. Лайки приветствовались, но я совершенно не ставил их первоцелью.

А представители хостеров пишут статьи вообще не ради лайков, а в качестве рекламы. Для этого им нужны не лайки а просмотры, чтобы название хостера примелькалось.

Ну так неинтересно. Вот если бы Вы выложили статью, она набрала бы сотню плюсов и две сотни комментариев - а потом признались бы, что это написала ChatGPT... :)

Признаться честно, эта мысль меня посетила самой первой. Опубликовать статью, которую написал chatGPT и посмотреть, что из этого выйдет. Но потом я подумал, что это в целом как-то не очень этично и как Хабр отнесется к такой "выходке". Ну, и что потом сделает за это моему аккаунту :)

Есть подозрение, что такие эксперименты уже несколько раз проводились.

Вы нашли рынок. Генерирование дурацких сочинений для школы и для ВУЗ-а :)))

Так может, и эта статья была написана нейросетью, вы же не знаете :) Давайте подождём денёк-два, может карты и вскроются…

Для этого нужно научить chatGPT постить комментарии на хабр.

А неплохая идея... Я её попросил это сделать :)

UFO just landed and posted this here

Не вытягивает пока такие простыни генерировать на русском, останавливается посредине процесса :(

Но начало многообещающее:

Акт 1.

(Главный герой и его жена сидят за обеденным столом)

Жена: (заботливым голосом) Ты сегодня выглядишь уставшим, мой дорогой. Ты работаешь слишком много.

Главный герой: (слегка улыбается) Ну это же моя работа, моя ответственность. Я должен зарабатывать нашу семейную жизнь.

Жена: (печально) Да, но не забывай о себе и о своем здоровье.

(Входит дочь)

Дочь: (радостно) Папа! Как дела?

Главный герой: (улыбается) Хорошо, конечно, моя малышка. А как у тебя дела?

Дочь: (восторженно) У меня отлично! Я учусь в школе и хочу быть программистом, как папа!

(Входит сын)

Сын: (веселым голосом) Привет, папа!

Главный герой: (радостно) Привет, сынок!

(Свет гаснет, входит начальник)

Начальник: (

На самом драматическом моменте зависла :) На следующей попытке перешла на английский почему-то...

Что начальник делал у них дома? :O

Так вот и говорю же, интрига осталась нераскрытой :) А следующая попытка была уже совсем о другом.

UFO just landed and posted this here

Приходил к жене ГГ очевидно.
Фильм "Ночные забавы" с Евстигнеевым и Гафтом.

Давайте проще эксперимент.
Берем сценарий любого мылосериала крутимого по телеку, запрос "напиши продолжение по этому примеру". Сравниваем то что получилось с одной из серий этого же или аналогичного сериала.
Мне кажется, еще чуть-чуть и по этому сценарию на дипфейках будет сгенерен видеоряд не сильно уступающий по качеству аналогичным существующим.
Если попросить стиль плоских мультяшек (где в кадре по полминуты только рот шевелится да глаза моргают), то бесконечные мульти-пульти обеспечены.


У кого навык есть, попробуйте. Даже любопытно стало.

Просто скажите чатботу: "Продолжай."

Он продолжит.

И на русском тоже можно.

После того, как он закончил своё сообщение, нужно написать что-то вроде "продолжи своё сообщение", или просто "продолжи". Иногда бывают сбои, конечно, но сработать может

Мне в таких ситуациях помогает команда "Go on"

Как хабр сможет отличить рукописные статьи от сгенерированных?

Для проверки нужна нейросеть с большими ресурсами чем нейросеть которая генерит текст

(количество состояний проверочного автомата должно быть больше количества состояний основного автомата)

Как и в жизни - победит сильнейший

Авторы ChatGPT уже выкатили инструмент, позволяющий идентифицировать текст как творение их нейросети.

Поиском по всем логам?

Когда аналог ChatGPT будет в open-source, такой метод не будет работать.

У меня иногда он жестко ошибается, но обычно идентифицирует правильно. Тут например затащил третий абзац.

тулза
Prediction based on 352 tokens
Real 99.94%

chat-gpt input

In what situations in deep NN should you use which activation functions? For image classification task, mostly for residual convolutions net. Which candidates should be investigated first? Swish, relu, selu, gelu? may be weighted average?

chat-gpt output

The choice of activation function in deep neural networks is dependent on a variety of factors, including the type of problem you're trying to solve, the architecture of your network, and the desired properties of the activation function.

For image classification tasks, ReLU is a popular choice due to its ability to introduce non-linearity into the model and its computational efficiency. ReLU is typically the default activation function used in residual convolutional networks, and it has been shown to work well in a variety of computer vision tasks.

Swish, SELU, and GELU are alternative activation functions that have been proposed to address some of the limitations of ReLU. Swish is similar to ReLU, but it has a sigmoid function that can provide better gradients and improve the network's performance. SELU is a self-normalizing activation function that aims to maintain the mean and variance of the activations close to a fixed point, which can help to prevent vanishing and exploding gradients. GELU is a smoothed variant of the rectified linear unit (ReLU) that is based on the Gaussian error linear unit (GELU) activation function and has been shown to outperform ReLU in some cases.

In terms of a weighted average, it is not typically used as an activation function. However, you could experiment with different weighted combinations of activation functions as part of your network architecture to see if it improves performance.

It's worth noting that these are general guidelines and that the best activation function for your network may be different depending on your specific task and dataset. The best way to determine the optimal activation function for your network is to try out a few different options and see which one works best through experimentation and evaluation.

А если перевести текст гуглтранслейтом?

Для проверки нужна нейросеть с большими ресурсами чем нейросеть которая генерит текст

Суммарные мощности нейросетей читателей Хабра и механизм кармы должны с этим справиться.

Это если вы хотите избежать false negative на 100% и максимально ограничить число false positive (но теоретически они возможны).

А если вы хотите поставить быстрый, но изредка ошибающийся фильтр возможны разные компромиссы.

Если согласться на компромис , то более сильная система смоделирует механизм обхода.

То есть так работают состязательные алгоритмы обучения пар нейросеток - одна учится предсказывать, другая опровергать...на каком-то этапе решают что хватит - и так сойдёт и выдают сгенерированный результат.

Надеюсь, часть пользователей перетекут в удобные ChatGPT-подобные поисковики.

Те кто читает всё подряд (типа меня, когда делаешь дайджест) будут видеть разницу, остальные будут следить за приемлемым уровнем качества каналов, на которые подписаны.

Земля продолжит вращаться :)

Все еще проще.
Просто просишь chatGPT сформировать для тебя персональную ленту из 10ти статей и сиди читай, не надо даже на Хабр заходить.

Как хабр сможет отличить рукописные статьи от сгенерированных?

Если внешне они одинаковые, то кому какая разница?

А в сгенерированных даже меньше ошибок. По крайней мере в тексте, не в коде :)

Как хабр сможет отличить рукописные статьи от сгенерированных?

Как сможет Хабр не знаю, но я пока что сразу вижу, кто писал статью - программист со своим корявым русским языком моя-твоя-понимай, скорее всего, это сказывается большая работа с английским техническим текстом - или же это не программист, пусть и не chatGPT, но журналист или кто там редактор (копирайтер), у кого русский язык на более высоком уровне.

Короче, нужно в chatGPT русскую речь сделать более корявой и тогда точно никто никогда не отличит от реального человека.

Может не надо ?

Мало того, что чуть ли не каждый второй комментарий написан на "корявом" русском языке, так теперь ещё и статьи будут "корявыми".

С удивлением наблюдаю, что ситуация один к одному напоминает ситуацию на шахматных сайтах. В последнее время ажиотаж на тему chatGPT привел к тому, что в 90% статей появляется комментарий типа "А не chatGPT эту статеечку сгенерировал?"...

Я лет 15 зависал на самарском шахматном сайте, так там с первых дней вся аудитория поделилась на обычных игроков и на тех, кто каждый свой проигрыш объясняет использованием соперником шахматного движка. Создали специальную антипрогерскую комиссию, подают сотнями партии на анализ...

И даже вывод комиссии о невиновности подозреваемого ровным счетом ничего не меняет. Мол, просто смог обмануть, делал ходы попеременно по вторым-третьим линиям и использовал сразу несколько движков.

Печально...

Оно, конечно, печально, но, вы не поверите - некоторые игроки таки используют шахматные движки во время игры.

Ну почему «не поверю»… наоборот, уверен, что такие есть. Все дело в отношении к этому. Я нашел десять минут, партию в «пулю» или в «блиц» сыграл, встряхнул мозги. Если еще и интересные позиции случились, так получил эстетическое удовольствие. И совершенно мне неважно, прога играла или нет. А весь секрет в том, что мне совершенно наплевать на рейтинги, очки и прочую шелуху.

Вот и в данном случае ровно то же самое. Информацию получил, если еще и полезная, так совсем хорошо. И мне совершенно все равно, кто мне это на блюдечке выдал, нейронка или «кожаный», прилежно скомпилировавший ту же самую разбросанную по Сети информацию. А если это все же человек, который описывает лично свой выстраданный практический подход к решению определенной проблемы, так это просто незапланированный праздник какой-то.

Поначалу, пока такие сети учатся на контенте, который генерили живые люди - всё будет очень даже неплохо.

Если вдруг дойдёт до того, что объем контента, сгенерированного (пусть даже потом пост обработанного) сетями будет возрастать и начнет превалировать над контентом, созданным вручную - обучаться сетям станет не на чем и качество контента сильно упадёт.

В принципе это будет самообучение, так что далеко не факт, что качество упадет.

Прирост количества информации по Шеннону будет 0, а энтропия может только возрастать

Если рассматривать ИИ как инструмент в руках мастера - то это безусловно прорыв, станет больше полезных статей. Если кто то ловит хайп, просто генерируя тексты этим монстром - то модератор сайта скоро станет самой важной профессией, опаснее сапера)

Ждем 2050 год, когда нейросети будут нанимать людей, чтобы люди для них "очеловечивали" текст и делали его более туп.. более простым...
Ох уж это будущее...

Было в Blindsight Питера Уоттса.

Как статья — никак. 5к знаков копирайтерастической банальности, годной максимум для лендинга, максимум

А вот новостников заменить таким образом — уже можно

Ничего, в платной подписке поди подкрутят лимиты...

Зная, что такой контент, саммари темы/технологии можно получить on demand, по запросу к сети, да ещё и сразу связать сос своим контекстом: "набросай мне DDD сервис для бухгалтерии на питоне", всякий человеческий запрос к таким "пред-генеренным" статьям пропадет. Поэтому и не будут их писать.

У меня, вот, нет уверенности, что ЭТУ статью написал НЕ chatGPT :)

"chatGPT, напиши мне статью про то, как ты просишь chatGPT написать статью на хабр"

Я уже наталкивался на хабре на статьи, которые очень подозрительно похожи на сгенерированные ChatGPT, вот эта, например - https://habr.com/ru/post/714146/

Спасибо ! Пожалуй и правда соглашусь. Очень на то похоже.

Я вот думаю: в чем собственно разница кто написал статью, человек или ИИ? По сути, если статья качественная, то это - не важно. Проблема ChatGPT сейчас в том, что она может навешать на уши лапши - откровенно не достоверной информации. Отсюда у меня возникают следующие идеи:

  1. Если какой-то автор решил использовать ChatGPT - флаг ему в руки, но он обязан проверить достоверность всех указанных в статье фактов.

  2. Нужна система репорта статей с не верной информацией (не политика и тп вкусовщина, а что-то научное или практическое). Если автор попался на таком 2 раза - идет в бан.

Или я упускаю другие аспекты какие-то?

Да, кажется это хорошая идея. Но тогда нужно разработать огромную систему модерации, заточеную конкретно под эту цель. Ну, не знаю на сколько овчинка выделки стоит. К тому же - как определить, вкусовщина или ошибка? Нужны какие-то особые технологии подтверждения и проверки, простой модерации статьи одним человеком при репорте думаю не хватит.

Как быть с ситуациями вида (ну раз у нас статья про Python):


  • статья например про решение какой то задачи на питоне, но код не запускается на Python 3.11. Автор использовал сетку? Нет, код написан на Python 2
  • статья опять про питон и на этот раз не запускается на Python 2. только на этот раз дело в том, что код — кусок бота для EVE Online, а там Stackless Python с некоторыми отличиями + кое что импортнуто в глобальный неймспейс и при этом человеку который про EVE Online и то что там Python — будет совсем не очевидно это

И что делать если это как то коснется даже не политики, а например истории или социологии?(есть ведь и такие стать на Хабре). Тоже наука но как ловить то? там же кроме общепринятого мнения бывают… точки зрения...

Фундаментальная проблема с любыми текстами от ChatGPT - иногда он гонит совершенно несусветную пургу, но очень уверенно и правдоподобно. Он хорошо хакает сигнальную систему хомо сапиенса, по которой человек "чувствует" говорит ли другой человек то что он знает или гонит.

Например я спросил ChatGPT написать контроллер UFM (User Flash Memory) для Altera MAX II FPGA. ChatGPT предложил использовать $readmemh и подробно объясненил почему это надо. Проблема в том, что это не контроллер. Это догадка что может быть Quartus умеет автоматически синтезировать $readmemh в контроллер UFM, по аналогии с тем, как он умеет инициализировать BRAM память.

Для UFM я никогда такое не видел, но прямо аж засомневался "а вдруг?" Также возможно ChatGPT "не понимает" разницу между синтезом и симуляцией.

Через неделю я задал тот же вопрос и ChatGPT начал писать код чтения из блока SRAM, что тоже полная фигня, но очень солидным и уверенным тоном.

иногда он гонит совершенно несусветную пургу, но очень уверенно и правдоподобно

Как и политики, журналисты, актёры, и прочие властители дум.

хорошо хакает сигнальную систему хомо сапиенса, по которой человек "чувствует" говорит ли другой человек то что он знает или гонит

Есть об этом видео.

Это только потому, что во-первых у верилога есть синтезируемое подмножество, во-вторых этим очень мало кто занимается, а значит у сетки не было надлежащего обучения. Боюсь если бы Вы попросили написать что-то не совсем тривиальное на питоне иди джаваскрипте, в ответ тоже получили бы лажу, однако куда менее очевидную.

Соглашусь. Для меня прослеживается аналогия с "проблемами пальцев" у Midjourney.

ChatGPT даёт довольно убедительные, на первый взгляд, ответы. Во многих случаях верные. Но иногда начинает нести откровенную отсебятину, которая имеет мало чего общего с реальным миром. Проверено на алгоритмах DSP и статистики как минимум. Думаю, таких сфер наберётся очень много, где придётся отделять зёрна от плевел. Получается уйма дезинформации, которую необходимо перепроверять.

Помимо того, что ChatGPT периодически гонит пургу, которую человек не в теме может не отличить от реальной информации, стилистически то, что он пишет - это говнотекст. То есть он как это говориться по английски "uninvolving", по русски это вроде называется "душнила". Если таким будет наполнен интернет, это будет трагично. Хотя и не так трагично, как будущие взрывы самолетов (а они произойдут), когда юные энтузиастичные к AI девелоперы, чтобы закрыть какую-нибудь дыру в проекте, будут вставлять в продакшн код куски, сгенеренные ChatGPT.

Если таких будет много, то вполне возможно появятся ресурсы, которые более сильно следят за качеством публикуемых материалов

... и эту работу будет работать очередная нейросеть

стилистически то, что он пишет — это говнотекст
А можно подумать, среднесерый копилефтер или графоман с какогонить самлиба или автортудея — пишут лучше?

Всякие недорогие, быстрорастворимые рерайты на лендингах всех мастей, которые пишутся по расценкам пять копеек за знак и клепаются по хз сколько в сутки, чтобы хватило на сигареты — они лучше?

Инет и так заполнен дешевыми душнилами от пера и клавиатуры, единственный рабочий инструмент которых — это словарь синонимов, чтобы манагер не очень офигевал от цифр антиплагиата

Там сейчас сеошники и копирайтеры засуетятся и нагенеритуют этим ChatGPT ещё тысячи говносайтов с полной чушью в дополнение к автопереводам стековерфлоу и википедий.

100% !!! Я вообще чем больше читаю последние статьи на любимом хабре, тем страшнее мне становится. Говорю это без всякой иронии. Вашу последнюю на хабе FPGA читал вообще с ужасом, наглядно представляя себе описываемые события... Мы (дети 50-60-х), воспитанные на фантастике, боялись сильного ИИ. Восстаний роботов, порабощения людей машинами и т.п. А бояться следовало совсем другого, на пороге чего мы похоже уже находимся... Нам с Вами с нашей специализацией считайте ещё сильно повезло. Очень мало кто с этим работает, и тому кто в теме, понять ИИ-шную лажу очень легко. Что в самое ближайшее время может произойти с теми же питонистами, представить себе страшно...

стилистически то, что он пишет - это говнотекст...Если таким будет наполнен интернет, это будет трагично

Тут есть один нюанс - он же не сам такой душный от природы. Он научен этому на основе того, что писали люди. Так что вся проблема в людях

Противостояние!
Создаем FakeGPT для авто-фильтрации мусорные и поверхностные статьи!

Почему SO не принимает ответы ChatGPT? С ними что-то не так? Они ошибочные? Или просто не хотят брать ответственность за последствия (возможные)?

ChatGPT не подходит для генерации правильных ответов. Обычно он генерирует крайне правдоподобный, но неверный текст.

Трудозатраты для создания ответов, которые выглядят правильными, но на самом деле ошибочны, гораздо ниже, чем трудозатраты для проверки этого ответа.

Кроме того, в случае людей, плохие ответы часто легко отличить от хороших визуально, а ChatGPT излучает уверенность, не имея ни малейшего понятия о том, что говорит.

Ну и, конечно же, это языковая модель, в отличие от того же Copilot

Базы знаний тоже не имеют ни малейшего понятия о том что отвечают. Но их ответы вполне себе принимаются в качестве консультаций.

Получается ChatGPT это просто болталка которая правильно строит фразы (в смысле натурального языка) опираясь на какие-то тексты. А если ей скармливать например только верифицированные медицинские тексты (учебники) она будет давать правильные ответы?

Она будет выдавать правильно составленные медицинские тексты и неправильные ответы, потому что ее тренировали составлять правильные фразы, а не фразы с правильным фактами

Интересно как будут ответы отличать?

которые мне доводилось читать на {абре за долгое время.
Правильнее так писать
которые мне доводилось читать на }{абре за долгое время.

Возможно на фоне этого шлака вызреет институт репутации авторов. А возможно, что их голоса утонут в инфошуме. Поглядим.

Печально то, что заходя в Интернет уже нельзя быть уверенным что общаешься с настоящими людьми.

Главная проблема с ChatGPT, это то что приходится проверять на достоверность, все то, что она генерит, иногда быстрее самому загуглить и быть уверенным в результате. Возможно добавление "уверенности модели" частично решит эту проблему.

Надо сделать проверку на достоверность, с помощью ChatGPT!

//картинка надо_идти_глубже.жпг

Модель может быть хоть на 146% уверена, что это корректный выхлоп, но это не добавит точности фактам. Это языковая модель, она генерирует предложения, которые выглядят как правильные.

По-разному. Недавно коллега гуглил 'код' для батника более часа. Удобоваримый ответ ГПТ отдал за 3-4 запроса. Минимальной допилки хватило что бы проблема была решена.

Мне кажется OTUS атакует хабр с новой силой. И они выдавят всех авторов

Стандартная статья а-ля Вики. Прочитать можно, читать постоянно - нет.

OpenAI выпустил инструмент для проверки. Поэтому можно им проверять статью.

Как вы заставляете ГПТ писать такие длинные связные тексты?

У меня он, как ни проси, выдавал лишь обрывочные данные - список тем, которые надо осветить, отдельные определения. Пытался я, правда, написать не доклад, а презентацию.

Это не говоря уже о том, что количество символов в сообщении ограничено, а на просьбе продолжить, чат временами обрывает старый текст и начинает писать новый.

Обычно хватает фраз такого плана после очередного сгенерированного им блока: "продолжай", "продолжи с фразы ...последняя фраза в предыдущем блоке...", "продолжай и добавь примеры кода на Python" и так далее

Sign up to leave a comment.

Articles