Pull to refresh
6
0
Александр Хомяков @Xom

AI, NLP

Send message

Вот это уже конкретно и интересно — то есть из к отбираем те, что ближе к цели по какой то метрике. Может тупо по косинусу в w2v к слову, означающее цель. Тогда следующее предложение будет хотя бы приближением к цели. И далее — следующи к уже из него н раз приблизят. Шаг рассуждения.

Хорошо, разобрались с детьми и здравым смыслом, теперь предлагаю с рассуждениями разобраться.
GPT-f все таки делает успешные "рассылается" в формальной системе, а мы про естественный текст. С этим сложнее, GPT выдает релевантные тексты, но это трудно назвать растениями со смыслом. По теме, но без цели. В принципе всякая RNN может делать последовательные шаги с учётом предыдущих. Но не с учётом цели, то есть того, чего ещё небыло в тексте. Или задаёт очень кратко. То есть опять же не учитывает конкретную цель как факт! Может это и есть корневой вопрос — научиться из одних фактов создавать другие?

Может поэтому самые интересные статьи по ИИ не из университетов, а из гуглов и фейсбуков? Но вопрос актуален ещё вот с какой стороны — чтобы сделать порыв в вопросе, надо не только математику и программирование. Даже философия нужна, гносеология, например. И когнитивные все. А одному это не охватить ни на какой аспирантуре. Поэтому нужно более эффективное общение разных специалистов. Но вот с этим проблема, видно даже тут.

Хорошо, поменяю в названии на "Чего", не принципиально для обсуждаемого вопроса.

В случае 2 род не угадала )

Откуда такая уверенность? Отличие их только в величине текстов обучения, а не в способе учёта фактов.

Но вывод, что вся проблема только в недостающих данных тоже кажется банальной. В GPT запихали кучу гигов теста. Да, она стала более здравомыслящей, но все равно смысла в ее текстах пока маловато. Все грамотно генерит, но бессмысленно. Чего то не хватает.
Пример из Word2vec как раз показывает, что "здравый смысл" может быть простой системой вывода (расчета векторов), а не обучения на данных.
И еще, ребенку можно просто показать картинку кита в книжке, умного он ни разу не встречал и не встретит в жизни. И он сразу из научится различать их, в других книжках )

Приведенные продолжения текста из GPT как раз показывает ее недостаток — это продолжение совершенно бессмысленны по отношению к исходному тексту. Они могли быть продолжением и другого любого текста, особенно 2 и 3. На счёт "понимает" поэтому есть большие сомнения )

В том то и дело, что не ответит, разве что случайно. Она напишет в ответ что-то релевантное, но не может выдать точно, что носки на столе или что их нет на столе. Для нее это равные ответы. GPT выдаст не правильный (факт), а правдоподобный ответ. Часто лишенный смысла, о чем много пишут.

Да, но «Что не хватает — силы (вин.п.)» тоже правильно (не правильно написал в примере). И вопрос про вопросительное слово чего или что, и в данном случае употребимо и то и другое

Нет, это может быть и винительный падеж при переходном глаголе

А другие примеры подходят? Данных, сил, помощи? ) Вопрос не подразумевает, что ответ обязательно в «времени». Я об этом.
Что тебе не хватает? — Времени (данных, сил, помощи и т.п.).
Вполне релевантный ответ ))
Не нужно пытаться описывать мир детально, но важно делать это полно и комплексно, хотя бы на каком-то уровне абстракции…

Противоречиво сформулировано — не детально, но полно. Но вопрос даже не в том. Человек тоже не встречает все случаи, на которые может дать ответы. Но отвечает, достраивая из имеющихся данных. Более того, ребенку достаточно показать что «вот это киска» и он будет узнавать с того момента всех кисок. И не надо никаких тысяч предъявлений. Когнитивная система человека работает не так как NN. Она строит новые модели на основе уже известных буквально на одном примере. А для здравого смысла ей вообще не нужны примеры! Человек их выводит естественным, но неизвестным нам способом (инсайт).
Коллеги в переписке раскритиковали п.1. Чуть подправил. Проблема не в самих фактах, а в том, что база фактов никогда не будет полной для ответа на все вопросы. Факты из базы будут «похожи», но прямой фактический ответ надо «строить» из известных фактов налету, что роднит п.1 с п.2. Если я положил носки в шкаф (факт в базе), то вопрос — «носки на столе?» — должен дать факт-ответ «на столе нет носков» (но такого факта нет), но подойдет и ответ «носки в шкафу» (релевантный из базы).

Спасибо. Только озвучил наболевшие проблемы.


Про заголовок — вообще-то употребимы обе формы в вопросе (вин. и род. п.), так как мы не знаем, что (чего) именно не хватает )


GPT-3 так же как и 2 просто может выдать метафорическое, подражая текстам. Это не владение метафорой, грубо говоря, для поиска ответа.

Возможно, за это отвечает один механизм "вывода", но пока мне задачи видятся разными. Здравый смысл больше про имплицитное знания. Это не всегда метафора, это вполне очевидные выводы, например.

То есть мы живём в собственной выдумке, так как быть придумали люди. Парадокс только я замечаю? (Если все есть выдумка, то и мы сами, а кто тогда выдумывает?).

Проблема в том, что сопоставление «ага! я осознаю» с конфигурацией активности нейронов/транзисторов никак не помогает. Полмозга отключают (как Вы описали), а оно остается. Тут какая-то другая проблема.
И Вы правы в том, что тут не избежать абстрактных переходов от одной модели рассмотрения к другой. Но этот переход создает тот самый «объяснительный разрыв». Проблема на самом деле в том, что мы нейроны описываем совсем в другой модели чем сознание. И они пока не пересекаются ни в одной точке. Вот тут у меня есть подробнее об этом. www.academia.edu/40846196/Cognitive_aspect_of_the_mind-body_problem
Если вам нужно подтверждение в виде статьи и ссылок на каждое мое слово, то лучше на этом закончить. Удачи.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity