Pull to refresh
53
1.1
Send message

... в паре синтетических задач или работе какого-нибудь 7z при упаковке 100500 данных. В реальности же важна однопоточная производительность, а там картина совсем другая, у i7 2170 попугаев, а у древнего xeon - 1578

т.е. раньше ответ видели все, а теперь только компания-разработчик бота

Ненене, не надо передергивать.
Никакой qt не сделает больно так, как ваш пример с 'передачей 120мб' на каждый клик в интерфейсе.
p.s. qt кстати один из самый продвинутых и эффективных движков ui, а еще старейший из активно развивающихся и поддерживаемых чуть ли не везде, не удивлюсь если весь современный c++ std был создан находясь под впечатлением именно этих разработок

ГПТ бесполезен

про это и говорю.

Зато весь мир как сошел с ума и вкладывает в технологии на их основе баснословные деньги, надувая пузырь и в кратчайшие сроки выдавая результат в виде роботов, обучающихся на видео с десятком попыток, изобретают лекарства, находят решения в математических задачах, пишут код, объясняют код, распознавание и синтез речи, музыки, генерация видео (пример направления - алгоритмы ускорения 3d ускорителя в играх, видеокодеки)... и да я подчеркиваю, что это уже работает, а не то что пузырь надувают на основе пустышки (финансовые пузыри надувают по любому поводу).

p.s. напомню на всякий случая, что gpt это не про чатик, это про transformer на основе attention

Да здравствует говнокод, никакими техническими средствами глупость изжить не получится, но вот если не давать разработчикам по рукам (например ограничив им оперативную память), они будут как раз множиться, делая свой код все хуже и хуже.

NAT-ы бывают разные, типовой nat который по умолчанию у всех у кого роутер с wifi и динамическим/статическим ip, пролезает с помощью stun сервера (когда для начала разговора нужен третий, но весь трафик пойдет напрямую между пирами, даже если они оба за nat), вот с мобильными сложнее, там провайдеры могут нагородить вложенные nat.

Ладно, донес я мысль свою неверно.
Еще раз, зачем пользователю может понадобиться открытие 7к вкладок одновременно? какую задачу с помощью этого действия он сможет решить? Даже 10-20 вкладок одновременно открывать имело смысл только во времена дорогого модемного интернета с оплатой за время, когда загрузка вкладки была долгой и приходилось сначала открыть кучу вкладок, дождаться их загрузки, отключить интернет и уже потом их читать. Но 100 или 1000?

Вы точно так же можете положить машину типичного пользователя, нажав ctrl+a на рабочем столе а затем enter.

Вся статья - троллинг. Эту задачу даже с помощью chatgpt нужно решать по другому.

Повторяю, текущий ИИ далек от общего, а значит не может правильно решать любые задачи. Но так как это все же с горем пополам неплохая модель интеллекта, с ее помощью можно делать интересные вещи, ранее недоступные ни какой автоматизацией

Примерно по той же аналогии, как это было с возвращаемыми ступенями Илона Маска, где в каждом обсуждении вылезают странные люди и и с упорством лемингов твердили - не взлетит, так и тут, с завидным упорством постоянно вылезают люди с криками 'вы все врете', 'это не интеллект', 'интеллект никогда не будет автоматизирован' и прочий бред, приводя бессмысленные аргументы но не давая определение интеллекта, а так же приводя в пример абсурдные задачи, которые по определению не могут быть решены инструментом, лишенным адекватного доступа к информации...

Моя теория заговора - такие люди появляются не просто так, где то у их появления и их мнения есть источник, а заблуждения грамотно заложены в мозги.

Одновременно открыть 7к вкладок не получится, точнее то задача из разряда - 'а что будет если я на эту кнопку нажму миллион раз'.

А так, эти вкладки физически ничем не отличаются от закладок, просто сохраненная где то ссылка на страницу.

Да, вместе с ссылкой правильно хранить историю, с учетом POST запросов, но технически в этом проблем нет, и то что это не реализовано ни в одном браузере нативно (расширениями будет не так эффективно, но все еще лучше чем хранить все в оперативке) говорит о том, что разработчики браузера не заинтересованы чтобы сделать все правильно (теория заговора - делают это не по лени а специально, особенно если смотреть на общую тенденцию разработки ПО в мире).

Уже десять лет существует технология webtorrent в т.ч. для стриминга, но видеоконтент продолжают отдавать по старинке.

Или у p2p технологий есть какая то неразрешимая фатальная проблема, почему ее не внедряют везде?

Очень интересно, какие веб приложения (если это не эмулятор pc на javascript или не игра с объемом текстур десятки гигабайт) могут иметь такие требования к ram?

Любой конструктор комплектующих на любом сайте с компьютерами справится безо всяких промтов. И с учётом цены.

Естественно готовый инструмент лучше универсального. Конструктор с комплектующими кто то уже написал и поддерживает его, наполняя его информацией. Когда обсуждают ИИ, все ожидают от него поведение как 'тот самый человек который легко сделает все сам'.. напоминаю, существующий ИИ работает в десятки или сотни раз быстрее, дешевле (да, пока еще не идеально, и вот на грани этого идеального и идут споры, когда же ИИ станет общим, спорить будет не о чем, люди просто станут не нужны в этих процессах, в принципе) и позволяет решать задачи, которые человеком решить невозможно/неоправданно дорого.

может сделать продавец-консультант

Можно мне тоже в этот мир 'розовых пони, какающих бабочками'?

Консультант в магазине заинтересован продать вам любое говно, и продаст, особенно если клиент не разбирается и просит помощи, он получит случайную, еще хуже чем галлюцинации chatgpt.

Мелкие торговые точки, где с некоторой вероятностью могут еще остаться 'честные продавцы', не могут на руках иметь все разнообразие комплектующих, только на заказ (и то под вопросом и зачем тогда приходить в такой магазин клиенту), а вот крупные магазины заинтересованы не сделать своим клиентам хорошо, а избавиться от неликвида, который лежит на складе, и это они делают, полистайте что продается в качестве готовых компьютеров, волосы дыбом становятся.

Мы живем в злом мире лжи и мошенничества, и если вы хотите получить хоть какую то помощь, обращайтесь за ней к не заинтересованному лицу, т.е. человеку или компании, которая лично не будет продавать вам железо (так как в этом случае их доход будет зависеть от его стоимости и его объема а не качества). Будьте готовы что вас обманут.. а советчики из интернета могут банально ошибиться, не для себя ведь стараются.

Ну а лучшим решением является - разобраться самому.

На зачаточном уровне они, теряется информация.

Плюс,.. пример - зайди на страницу ozon и попробуй пойми где тут характеристики, где отзывы, и что нужно сделать чтобы найти среди них например негативные.

А какой именно функционал по распознаванию лиц предлагает azure openai?

Все еще хуже, с одной стороны с помощью нейронок будет генерироваться информационный мусор, а с другой, мы будем пользоваться различными инструментами (как сейчас adblock или sponsorblock) чтобы защитить свой мозг от этого ада.

И только создатели нейронок будут потирать руки, потому что и те и другие будут им платить.

Да, каждому следующему разработчику ИИ с нуля будет все сложнее и сложнее. Даже без генерации мусорного контента (а его уже много, посты и комментарии) есть проблема в том что те сервисы, что хранят контент, отказываются его отдавать просто так, а некоторые пытаются еще и отсудить побольше денег за то что раньше отдавали бесплатно.

Миру нужно срочно меняться, иначе будет плохо. Например есть исследования, которые показывают что если нейронные сети обучать исключительно на основе сгенерированных данных этих или других нейронных сетей, то если делать это постоянно то ИИ деградирует, а так как в основе нашего интеллекта скорее всего лежат те же принципы (да, сложнее), наш живой интеллект тоже может от этого пострадать.

Скорее всего для задачи вопрос-ответ по фактам, не требующим логику, у chatgpt сделана какая то надстройка, чтобы контролировать факты. Как только начинаешь задавать сложные вопросы, где используются знания до которых нужно провести анализ на основе данных в памяти и контексте, то возникают проблемы.

И да, знание фактов у chatgpt не идеальное, к примеру спросите у нее какой командой можно добиться какой-либо задачи, например зафиксировавшись на конкретной утилите, если этого утилита не умеет делать. У меня что anthropic что openai боты галлюцинировали на вопросе настройки мониторинга жесткого диска в linux, в частности мониторинг лимита записей ssd, они выдумывают несуществующие ключи.

Текущие приложения на базе GPT типа chatgpt не способны решать любые задачи, для этого они должны обладать свойствами AGI (общий искусственный интеллект), который пока еще не создали.
Но тот скачок в возможностях, который дали трансформеры, на столько значимый, что исследователи с надеждой смотрят и надеются что дальше будет именно общий интеллект.

Один из примеров направления развития это когда внешнее приложение, написанное на обычном языке (не сильно сложное) будет постоянно/циклически обращаться к GPT, жонглируя запросами и собираемой информацией, уже может решать универсально многие задачи с некоторой вероятностью успеха (да, теперь у нас компьютеры стали не логичными, и не 100% гарантиями, как человек).

В частности задача автора статьи по сборке компьютера потребует серию промптов по типу - 'из каких компонентов состоит игровой компьютер', для полученного списка по каждому задать вопрос, 'какие компоненты вот_такого_типа должен содержать компьютер за xxx денег', затем задать запрос по поиску стоимости каждого компонента (так как онлайн площадки для торговли создают проблемы для автоматизации и сбора информации о ценах, без дополнительных модулей, которые бы это преодолевали, дальше ни один chatgpt не продвинется), и уже после, закинув всю эту информацию в контекстное окно можно уже сделать финальный запрос, 'подбери из этих комплектующих игровой компьютер стоимостью xxx' (кстати я бы делал запрос не на это, так как в математике все доступные обученные gpt слабы, а попросил бы написать приложение, которое смогло бы подобрать рабочую комбинацию из данных комплектующих, для этого пришлось бы еще несколькими запросами сформулировать ограничение совместимости компонент, т.е. вернуться назад и попросить добавить к списку комплектующих информацию о совместимости (например для процессора - сокет, для памяти - тип sodim/dimm и номер версии ddr3/4/5 и т.п.).
Лучший сервис что я нашел который умеет делать запросы в интернет (боты coze) и использует лучшую модель gpt4, без программирования, просто беседой, сумел собрать сборку, основываясь для каждой компоненты на данных разных сайтов, т.е. получился мусор. Без контроля над тем где искать это логичное следствие.

Все это можно описывать на обычном человеческом языке, в свободной форме, полтора два года назад об этом никто даже мечтать бы не мог, этот перелом произошел именно когда GPT (детище 2017 года, переводчики, автодополнение мобильных клавиатур, классификация текстов,..) скормили на пару порядков большим количеством данных и дав ему так же на один два порядка больше вычислительных ресурсов (больше параметров).

круто получить уточняющие вопросы

добавь это в промпт, спросит.

На этом основаны алгоритмы, которые в цикле крутят несколько промптов к текущему контексту, задают вопросы и докидывают в контекст ответы.

Однако в конечном итоге кое-что у нее все-таки получилось

И что же вы делали чтобы получилось? Делали ли вы то же самое для других проектов?

Мои попытки работы с YaGPT показали что у них есть модуль, работающий с каким то каталогом, возможно market но реализованный адски криво, доверять его решениям я бы не стал.

Что же именно вы спрашивали у ИИ? как именно оформляли запросы и что вы ожидали от них?

p.s. Просто по своей природе, если просто что то попросить у современных чат gpt проектов, они либо сгаллюцинируют (вероятнее всего), либо поищут готовые решения (т.е. какой то сайт, который эту задачу решает) и скомпонуют из них ответ.

Правильно было бы сформировать более сложный запрос, или их серию (потому что GPT не может отвечать на такие взаимосвязанные вопросы сразу, исключительно из-за ограниченности размера контекстного окна и того, как они с ним работают), чтобы ИИ сначала поискал исходные данные - списки компонентов с ценами, таблицы совместимости или скорее правила подбора (сомневаюсь что из обучающей выборки что то получится стоящее) и уже после этого можно попробовать к примеру попросить написать приложение, которое бы на основе этих данных перебирало бы комбинации сборок и выдавало бы ответ... GPT принципиально все это само сделать не может, по ее определению

И да, bing chat (и скорее всего один в один он же испольузется в chatgpt со включенным поиском в интернет) возможно внутри основан на интересной идее, они именно формируют запросы, собирают данные в контекстное окно, но к сожалению последние пол года сломали этот механизм используя дешевую gpt35 или аналогичную и не держат контекст в процессе всей беседы, он тупо забудет первоначальную задачу.

Я пробовал разные сети с учетом знаний из интернет, и perplexity и боты coze (там тоже есть поисковый плагин) - все они такую задачу в принципе решить не смогут и нагаллюцинируют случайный мусор.

1
23 ...

Information

Rating
1,186-th
Registered
Activity