15 августа 2016 в 00:25

Языковая проблема искусственного интеллекта перевод

imageДоводилось ли вам сталкиваться с системами искусственного интеллекта? Полагаем, ответ большинства хабравчан будет положительным. Ведь ИИ уже перестал быть «чем-то за гранью фантастики». Системы распознавания речи Siri, IBM Watson, ViaVoice, виртуальные игроки Deep Blue, AlphaGo и даже такие ранние системы, как MYCIN, разработанная в 1970-х годах в Стэнфордском университете и предназначенная для диагностирования бактерий, вызывающих тяжелые инфекции, а также для рекомендации необходимого количества антибиотиков — все это вариации на тему ИИ. Но, несмотря на то, что технологии стремительно набирают ход, современные системы все еще весьма «угловаты», и главная проблема, с которой сталкиваются исследователи, — это языковое обучение. Заставить систему говорить не сложно, но объяснить ей «физику» окружающего мира — то, что человек понимает на интуитивном уровне — пока не удавалось никому.

Тема языковой проблемы искусственного интеллекта широко раскрывается в статье Уилла Найта, главного редактора AI MIT Technology Review, которую специалисты PayOnline, системы автоматизации приема онлайн-платежей, старательно перевели для пользователей Хабрахабра. Ниже представляем сам перевод.

Примерно в середине крайне напряженной игры в Го, проходившей в южнокорейском Сеуле, участниками которой были один из лучших игроков всех времен Ли Седоль и созданный Google искусственный интеллект под названием AlphaGo, программа сделала загадочный шаг, продемонстрировавший пугающее преимущество над своим человеческим оппонентом.

На 37 шаге AlphaGo решила поставить черный камень в нелепое, на первый взгляд, положение. Казалось, что этот ход, больше похожий на характерную ошибку новичка, наверняка приведет к сдаче существенной части игрового поля, тогд как суть игры, напротив, заключается в контроле игрового пространства. Телевизионные комментаторы гадали в чем же дело: то ли это они не поняли хода машины, то ли у нее произошел какой-то сбой. На самом деле, вопреки всеобщему представлению, ход номер 37 позволил AlphaGo создать сильную позицию в центре доски. Программа Google одержала убедительную победу, совершив ход, который, на ее месте не сделал бы ни один человек.

image

Победа AlphaGo выглядит особенно впечатляюще, поскольку многие считают древнюю игру в Го хорошей проверкой на развитость интуитивного интеллекта. Ее правила крайне просты: два игрока по очереди расставляют черные и белые камни на пересечениях вертикальных и горизонтальных линий доски, пытаясь окружить камни оппонента и тем самым исключить их из игры. Несмотря на эту простоту, хорошая игра в Го требует немалых умственных усилий.

Если в шахматах игроки способны «видеть» на несколько шагов вперед, то в Го этот процесс выходит на новый уровень: просчет оптимальных вариантов в каждой отдельной партии очень быстро становится практически нереальной задачей. При этом в отличие от шахмат, в Го практически нет классических маневров или шаблонов. Нет в ней и какого-либо очевидного способа оценить преимущество, поскольку даже искушенному игроку бывает сложно дать однозначное объяснение тому, почему он сделал тот или иной ход. Все эти особенности делают невозможным написание простого набора правил, следуя которому компьютерная программа могла бы играть на одном уровне с профессионалами.

Никто не обучал AlphaGo игре в Го. Вместо этого программа проанализировала тысячи игр и сыграла миллионы партий против самой себя. В числе прочих ИИ-техник программа использовала один из наиболее популярных в настоящее время методов под названием «глубинное обучение». Его суть сводится к математическим вычислениям, имитирующим происходящие в головном мозге процессы, когда связанные слои нейронов активизируются во время опознания и запоминания новой информации. Программа выучила себя сама с помощью многочасовой практики, постепенно совершенствуя способность интуитивно чувствовать стратегию. Тот факт, что в результате этого она смогла победить одного из сильнейших игроков в Го, представляет собой по-настоящему знаковое событие в развитии машинного обучения и искусственного интеллекта.

image
A Rubber Ball Thrown on the Sea — Лоуренс Вайнер, 1970 / 2014

О визуальном сопровождении статьи
Одна из причин, по которым понимание языка так трудно дается компьютерам и программам искусственного интеллекта заключается в том, что значения слов часто зависят от контекста и даже внешнего вида отдельных букв и слов. Эта статья сопровождается серией изображений, авторы которых продемонстрировали примеры использования различных визуальных образов, общий смысл которых выходит далеко за рамки значения использованных в них букв.

Спустя несколько часов после хода номер 37 AlphaGo завершила партию победой, доведя свое преимущество в серии из трех побед до двух очков. После этого Седоль стоял перед толпой журналистов и фотографов, вежливо принося свои извинения за то, что подвел человечество. «У меня просто нет слов», — сказал он, жмурясь под шквалом фотовспышек.

Неожиданный успех AlphaGo свидетельствует о значительном прогрессе в области искусственного интеллекта, которого ученым удалось достичь за последние несколько лет, спустя десятилетия ступора и откатов назад, часто называемых «ИИ-зимой». Глубинное обучение открывает машинам дорогу к интенсивному самообучению, позволяющему решать комплексные задачи, всего каких-то два года назад считавшихся доступными только для людей с исключительным уровнем интеллекта. Самоуправляемые автомобили уже сегодня стали данностью обозримого будущего. Кроме того, уже совсем скоро ИИ-системы, основанные на применении методов глубинного обучения, будут помогать людям диагностировать болезни и рекомендовать лечение.

Но несмотря на этот впечатляющий прогресс, существует одна фундаментальная область знаний, судьба которой в контексте ИИ остается неясной: языковое знание. Системы вроде Siri или IBM Watson могут следовать простым воспроизведенным вслух или на письме командам и отвечать на элементарные вопросы, однако они не способны поддерживать беседу и не понимают реального смысла слов, которые используют. Если мы хотим по-настоящему ощутить на себе весь преобразовательный потенциал ИИ, ситуация в этой области должна измениться.

Несмотря на то, что AlphaGo не умеет разговаривать, он содержит в себе технологию, которая может вывести машинное понимание языка на более высокий уровень. В стенах таких компаний, как Google, Facebook и Amazon, а также лидирующих академических лабораториях по изучению ИИ, исследователи предпринимают попытки полноценного решения задачи, которая кажется неразрешимой. Среди применяемых ими разработок есть глубинное обучение и некоторые другие ИИ-инструменты, обеспечившие успех AlphaGo и общее возрождение интереса к ИИ. Успешность их работы позволит осознать масштаб и характер явления, определяемого как революция искусственного интеллекта. От результатов их деятельности также будет зависеть и то, насколько коммуникабельными будут машины будущего и смогут ли они стать близкими друзьями людей в их повседневной жизни, или так и останутся загадочными черными ящиками, стремящимися к еще большей автономности.

«Создать человечную ИИ-систему, в основе работы которой не было бы языка, просто невозможно, — говорит Джош Таненбаум, профессор когнитивистики и вычислительной техники MIT. — Это одна из самых очевидных характерных особенностей человеческого интеллекта».

Возможно, те же методы, которые позволили AlphaGo завоевать первенство в Го однажды позволят компьютерам овладеть языком, а может быть, для этого потребуется нечто большее. В любом случае, если программы искусственного интеллекта не научатся понимать язык, воздействие, которое ИИ окажет на общество, будет иным. Конечно, у нас в распоряжении по-прежнему будут невероятно мощные и умные программы, такие как AlphaGo. Однако наши отношения с ИИ, вероятно, будут характеризоваться гораздо меньшей степенью сотрудничества и дружественности.

«С самого начала исследований ученым не давал покоя один вопрос: “Что если у нас были бы сущности, разумные с точки зрения эффективности, но отличающиеся от нас, в том смысле, что они не способны понять нашу человеческу природу и осознать ее?”, — говорит Терри Виноград, почетный профессор Стэндфордского Университета. — Представьте себе машины, существование которых основано не на человеческом интеллекте, а на “больших данных”, и которые при этом управляют миром».

Заклинатели машин


Через несколько месяцев после триумфа AlphaGo я отправился в Кремниевую долину — самое сердце последнего бума в сфере искусственного интеллекта. Мне хотелось нанести визит исследователям, добившимся заметного прогресса в области практического применения ИИ и прямо сейчас пытающимся вывести машины на более высокий уровень понимания языка.

Я начал с Винограда, который живет в окрестностях Пало-Альто, прямо у южной части стэндфордского кампуса, неподалеку от штаб-квартиры Google, Facebook и Apple. Кучерявые белые волосы и густые усы делают его еще более похожим на авторитетного академика, излучающего к тому же заразительный энтузиазм.

В далекий 1968 год Виноград предпринял одну из самых первых попыток научить машину разумному разговору. Будучи одаренным математиком и очарованным языкознаниями ученым, он оказался в новой лаборатории MIT по изучению искусственного интеллекта с целью написания докторской работы и решил разработать программу, способную вести текстовые беседы с людьми на языке повседневного общения. В то время эта задача не казалась чересчур амбициозной. Область ИИ развивалась семимильными шагами, а другие сотрудники MIT работали над созданием сложных систем машинного зрения и футуристическими роботизированными манипуляторами.

«Мы тогда чувствовали себя так, будто изучали неизведанное и абсолютно не были ограничены в возможностях», — вспоминает он.

image
Four Colors Four Words — Джозеф Кошут, 1966

И все же далеко не все были убеждены в том, что освоение языка — простая задача. Некоторые критики, включая влиятельного лингвиста и профессора MIT Ноама Чомски, полагали, что в своих попытках научить машины понимать человеческий язык исследователи ИИ неизбежно столкнутся с проблемами, просто потому, что механика человеческого языка тогда была изучена слабо. Виноград вспоминает даже, как однажды на вечеринке один из студентов Чомски прекратил с ним общение, едва услышав, что тот работает в лаборатории ИИ.

Но были и причины для оптимизма. Несколькими годами ранее Джозеф Вайзенбаум, немецкий профессор из MIT, создал первого в истории чат-бота. Виртуальный собеседник, названный ELIZA, был запрограммирован вести себя, как карикатурный психотерапевт, повторяющий ключевые фразы утверждений или задающий развивающие беседу вопросы. Если бы вы, например, сказали ей, что злитесь на свою мать, то в ответ она бы спросила: «Что еще приходит вам на ум, когда вы думаете о своей матери?». Этот дешевый, на первый взгляд, трюк, сработал на удивление хорошо. Вайзенбаум был шокирован, когда некоторые из участников испытаний начали рассказывать машине о своих самых темных секретах.

Виноград хотел создать нечто такое, что будет способно понимать язык. Начал он с общего упрощения задачи. Он создал примитивную виртуальную среду, «блочный мир», состоящий из горстки воображаемых объектов, расположенных на таком же, воображаемом, столе. Далее он создал программу под названием SHRDLU, способную обрабатывать все существительные и глаголы, применяя простые правила грамматики, необходимые для обращения к голому виртуальному миру. SHRDLU (набор букв, без всякого смысла повторяющий последовательность второго столбца клавиатуры линотипа) могла описывать объекты, отвечать на вопросы об их взаимосвязи и выполнять набранные команды, внося соответствующие им изменения в блочный мир. Она даже обладала некоторым подобием памяти. То есть, если вы говорили ей переместить красный конус и после этого упоминали «конус», то она автоматически подразумевала фигуру красного цвета, а не какого-либо другого.

SHRDLU всюду демонстрировали как один из символов фундаментального прогресса в области ИИ. Но это была только иллюзия. Когда Виноград попытался расширить блочный мир программы, то правила, необходимые для учета используемых слов и грамматических связей, стали слишком громоздкими и неуправляемыми. Несколькими годами позже он прекратил работу над программой и, в конечном счете, бросил и работу с ИИ для того, чтобы сосредоточиться на других областях исследований.

«Ограничения оказались гораздо строже, чем мы думали в самом начале», — признается ученый.

Виноград пришел к выводу, что предоставить машинам способность к подлинному пониманию языка с помощью доступных в то время инструментов было просто невозможно. Проблема состояла в том, что, как писал профессор философии Калифорнийского университета в Беркли Хьюберт Дрейфус в своей книге 1972 года «Чего не могут вычислительные машины», многие вещи, которые делают люди, требуют своего рода инстинктивного мышления, воспроизвести которое с помощью жестких правил нельзя. Именно поэтому до матча между Седолем и AlphaGo многие эксперты выражали сомнения по поводу того, что машины смогут овладеть игрой в Го.

image
Pure Beauty — Джон Балдессари, 1966-68

Но даже в то время, пока Дрейфус развивал свою теорию, группа исследователей работала над подходом, который, в конечном счете, должен был наделить машины как раз таким типом мышления. Почерпнув немного вдохновения из открытий нейронауки, они экспериментировали с искусственными нейронными сетями — слоями математически симулированных нейронов, которые можно было приучить к активации в ответ на определенные входящие данные. Первые подобные системы были ужасно медленными, и от подхода отказались в силу непрактичности его логического аппарата. Крайне важно, однако, отметить, что нейронные сети могли обучаться такому поведению, запрограммировать которое заранее было невозможно, и позже этот навык оказался очень полезен для решения простых задач, таких, как распознание рукописных символов. Работа в этом направлении приобрела коммерческий характер в 90-х, когда стала использоваться для чтения цифр на чеках. Сторонники подхода были убеждены, что нейронные сети, в конечном счете, позволят машинам показывать гораздо более значимые результаты, чем то, что они могли в те годы. В один прекрасный день, заявляли они, технологии смогут даже понимать язык.

На протяжении последних нескольких лет нейронные сети стали во много раз сложнее и эффективнее. Подход был усилен благодаря успехам в области математики и, что важно, появлению более быстрого компьютерного оборудования и доступности огромного количества данных. К 2009 году исследователи из Университета Торонто показали, что многослойная сеть глубинного обучения способна распознавать речь с рекордной точностью. А в 2012 году эта же группа ученых выиграла конкурс по машинному зрению, представив невероятно точный алгоритм глубинного обучения.

Для распознания отдельных объектов изображения нейронная сеть глубинного обучения использует простой трюк. Слой симулируемых нейронов получает входные данные в форме изображения, и некоторые из этих нейронов активируются в ответ на интенсивность отдельных пикселей. Получаемый после этого сигнал проходит через многие другие слои связанных нейронов перед тем, как достигнуть выходного слоя, который сигнализирует о том, что объект был опознан. Для регулировки чувствительности нейронов и последующего воспроизведения их корректной реакции используется математическая техника под названием «обратное распространение ошибки». Именно этот шаг позволяет системе учиться. Каждый слой сети реагирует на разные элементы изображения, например, на края, цвета или структуру. Подобные системы сегодня способны распознавать объекты, животных или лица с точностью, сопоставимой с возможностями любого современного человека.

Попытки применить глубинное обучение к языкам сталкиваются с очевидной проблемой, суть которой заключается в том, что слова — это условные символы и в этом отношении они принципиально отличаются от художественных образов. Два слова, например, могут быть похожи по значению и состоять при этом из совершенно разных букв, а одно и то же слово в разных контекстах может обозначать совершенно разные вещи.

В 80-х годах исследователи предложили интересный способ превращения процесса изучения языка в такой тип задачи, с которым нейронная сеть сможет справиться. Они показали, что слова могут быть представлены в виде математических векторов, что позволяет рассчитать сходства между родственными словами. К примеру, «лодка» и «вода» близки друг другу в векторном пространстве, несмотря на то, что выглядят эти два слова совершенно по-разному. Исследователи из Монреальского университета под руководством Йошуа Бенгио и другая группа из Google использовали этот подход для создания сетей, где каждое слово в предложении может быть использовано для построения более сложной модели представления, которую Джефри Хинтон, профессор из Университета Торонто и видный исследователь методики глубинного обучения, называет «вектором мысли».

Совместное применение двух таких сетей делает возможным высококачественный перевод между двумя языками, а объединение этого типа сети с другим, способным распознавать объекты изображений, позволяет составлять на удивление правдоподобные сопроводительные подписи к ним.

Смысл жизни


Сидя в конференц-зале, расположенном в самом сердце гудящей как улей штаб-квартиры Google в калифорнийском Маунтин-Вью, Квок Ли, один из исследователей компании, участвовавший в разработке ее новейших ИИ-решений, рассуждает над идеей машины, способной поддерживать настоящую беседу. Амбиции Ли направлены на получение полезных результатов, которые можно будеет использовать в разработке разговаривающих машин.

«Я ищу способ симулировать мыслительный процесс внутри компьютерной машины, — говорит он. — А если вы хотите симулировать мысли, вы должны уметь спросить машину, о чем она думает».

image
The Answer/Wasn’t Here II — Тауба Ауербах, 2008

Google уже сейчас обучает свои компьютеры основам языка. В мае компания анонсировала систему, получившую название Parsey McParseface, способную анализировать синтаксис предложения, распознавая существительные, глаголы и другие элементы текста. Несложно понять, насколько ценным могло бы оказаться машинное понимание языка для компании. Раньше поисковый алгоритм Google занимался простым отслеживанием ключевых слов и ссылок между веб-страницами. Сейчас, благодаря системе под названием RankBrain, он читает тексты на страницах, пытаясь выделить все наиболее значимые смысловые части, чтобы на основе этого знания предоставить пользователю улучшенный поисковый результат. Ли хочет значительно углубиться в этом направлении. Адаптировав систему, доказавшую свою полезность в переводе и подборе подписей к изображениям, он и его коллеги создали SmartReply, читающий содержимое сообщений Gmail и предлагающий возможные варианты ответа на них. Кроме того, он также создал программу, проанализировавшую переписку техподдержки Google с пользователями и научившуюся отвечать им на простые технические вопросы.

Совсем недавно Ли разработал программу, способную давать неплохие ответы на открытые вопросы. Ее обучение включало в себя обработку диалогов из 18900 фильмов. Некоторые из ее ответов оказываются пугающе точными. Например, на вопрос Ли о том, в чем заключается смысл жизни программа ответила: «Служить высшему благу».

«Это был весьма хороший ответ, — вспоминает он с большой ухмылкой на лице. — Я и сам, наверное, не ответил бы лучше».

Есть только одна проблема, которая быстро становится очевидной по мере наблюдения за другими ответами системы. Когда Ли спросил: «Сколько ног у кошки?», система ответила: «Четыре, я полагаю». После этого он сделал другую попытку: «Сколько ног у сороконожки?». Ответ последовал любопытный: «Восемь». По сути, программа Ли не имеет понятия о чем она говорит. Она понимает, что определенные сочетания символов могут встречаться вместе, но не имеет ни малейшего понятия о существовании реального мира. Она не знает, как на самом деле выглядит сороконожка, или как она передвигается. То есть перед нами все еще только иллюзия интеллекта, лишенная того самого здравого смысла, который мы, люди, воспринимаем как нечто само собой разумеющееся. Подобная нестабильность результатов вполне обыденна для систем глубинного обучения. Программа Google, сочиняющая подписи к изображениям, делает странные ошибки. Глядя на дорожный знак, например, она может назвать его набитым едой холодильником.

По любопытному стечению обстоятельств, ближайший сосед Терри Винограда в Пало-Альто оказался человеком, который также может помочь компьютерам получить более глубокое понимание истинного значения слов. В момент моего визита Фей-фей Ли, директор стэндфордской лаборатории искусственного интеллекта, была в декретном отпуске, однако она пригласила меня к себе домой и с гордостью представила своей очаровательной трехмесячной малышке по имени Феникс.

«Видите, она смотрит на вас чаще, чем на меня, — сказала Ли, заметив, как пристально девочка смотрит на меня. — Это потому, что вас она видит впервые, и ее система раннего распознания лиц сейчас работает на полную».

Ли провела большую часть своей карьеры, изучая машинное обучение и компьютерное зрение. Несколько лет тому назад она возглавила рабочую группу по созданию базы данных по миллионам изображений объектов, каждый из которых был помечен соответствующим ключевым словом. Тем не менее Ли считает, что машины нуждаются в более совершенном понимании событий окружающего мира, и в этом году ее команда выпустила другую базу изображений, снабженных гораздо большим количество комментариев. Каждое изображение было описано человеком с помощью десятков характеристик: «Собака едет на скейтборде», «У собаки пушистая и волнистая шерсть», «Дорога потрескалась» и так далее. Исследователи надеются, что системы машинного обучения научатся лучше понимать физический мир.

«Языковая часть мозга получает много информации, в том числе и из отделов, ответственных за обработку визуальной информации, — говорит Ли. — Важной частью создания полноценного ИИ будет интеграция этих систем».

Этот подход близок к тому, как познают окружающий мир дети, постоянно ассоциирующие слова с объектами, отношениями и действиями. Однако на этом аналогия с человеческим обучением заканчивается. Маленьким детям не нужно видеть собаку верхом на скейтборде, чтобы представить ее в уме или описать при помощи слов. Фей-фей Ли считает, что современного машинного обучения и ИИ-инструментов недостаточно, чтобы воплотить в жизнь мечту о настоящем ИИ. По мнению ученой, исследователям ИИ также придется подумать над учетом таких аспектов, как эмоциональный интеллект и навыки социального общения.

«Искусственный интеллект — это не только интенсивная обработка данных с помощью глубинного обучения, — говорит Ли. — Мы [люди] очень плохо справляемся с масштабными вычислениями, но отлично проявляем себя, когда дело доходит до абстракции и творчества».

Никто не знает, как дать машинам эти человеческие навыки, если, конечно, это вообще возможно. Быть может, в этих качествах есть нечто, присущее только людям, что делает их недосягаемыми для ИИ?

Современные ученые-когнитивисты, такие как Таненбаум из MIT, в своих теориях высказывают идею о том, что всем современным нейронным сетям, сколь большими и сложными они ни были, не хватает многих других важных компонентов разума. Люди обладают способностью обучаться очень быстро на основе относительно небольшого количества данных и имеют встроенную способность эффективно создавать в уме трехмерную модель мира.

«Язык строится на других способностях, возможно, более простых. Так или иначе, младенцы обладают ими еще до того, как в их жизни появляется разговорный язык: они воспринимают мир визуально, делают что-нибудь с помощью опорно-двигательной системы и понимают физику окружающего мира или цели других его обитателей», — говорит Таненбаум.

Если он прав, то создать языковое понимание в машинах и ИИ без попытки воспроизвести человеческое обучение, способы восприятия окружающего мира и психологии будет невозможно.

Объясни, что ты имеешь в виду


Офис Ноя Гудмана на стэндфордской кафедре психологии практически пуст, не считая пары абстрактных картин, прислоненных к одной из стен и нескольких заросших растений. Когда я приехал, Гудман увлеченно печатал что-то, сидя за своим ноутбуком и положив голые ноги на стол. Мы прогулялись через залитый солнцем кампус.

«Особенность языка заключается в том, что с одной стороны он зависит от большого количества знаний о нем, но с другой стороны он также определяется и огромным количеством общеизвестной информации об окружающем мире, и оба эти знания очень тонко переплетаются друг с другом», — объяснил он.

Гудман и его студенты разработали язык программирования под названием Webppl, который можно использовать для того, чтобы дать компьютерам некое подобие здравого смысла, основанного на теории вероятности, и затея эта, как показала практика, может оказаться весьма полезной. Одна из экспериментальных версий webppl может понимать игру слов, другая — хорошо справляется с преувеличениями. Если она услышит, что каким-то людям пришлось «целую вечность» ждать столик в ресторане, она автоматически решит, что употребление буквального значения слова в данном случае маловероятно и на самом деле этим ребятам просто пришлось долго ждать, что вызвало их негодование. Эта система далека от того, чтобы сравниться с настоящим интеллектом, однако она показывает, как новые подходы могли бы помочь создать ИИ-программы, способные разговаривать более натурально.

В то же время пример Гудмана помогает нам оценить сложность обучения машины языку. Понимание контекстуального значения «целой вечности» — одна из типовых задач, которую системам ИИ придется научиться решать — кажется достаточно сложным достижением для современных программ, при этом подобная задача элементарна для человеческого интеллекта.

И все же, несмотря на сложность и многомерность этой задачи, начальный успех исследователей в использовании техник глубинного обучения для распознания изображений и обучении машин играм, таким как Го, по крайней мере дает надежу на то, что мы, возможно, стоим на пороге прорыва и в области языков. Если это так, эти успехи пришлись как нельзя кстати.

Если ИИ и суждено стать вездесущим инструментом, который люди будут использовать для преобразования собственного интеллекта, и которому они будут доверять решение задач в рамках тесного сотрудничества, язык должен стать ключом для этих взаимоотношений. Особую актуальность эта потребность приобретает в свете того, что глубинное обучение и другие техники, в сущности, позволяют программам искусственного интеллекта программировать самих себя.

«В общем, результаты работы системы глубинного обучения производят сильное впечатление, — говорит Джон Леонард, профессор MIT, исследующий автоматизированное вождение, — Однако, с другой стороны, их поведение бывает очень трудно понять».

Toyota, изучающая широкий спектр технологий автоматизированного вождения, инициировала исследовательский проект в MIT под руководством Джеральда Сассмана, эксперта по искусственному интеллекту и языковому программированию. Цель проекта — разработка автоматизированной системы вождения, способной объяснить, почему она совершила то или иное действие. Вполне очевидный способ объяснения в данном контексте — разговор робота с водителем.

«Разработка систем, которые понимают то, что им известно — по-настоящему трудная задача, — говорит Леонард, руководящий другим проектом Toyota в MIT. — Но, так или иначе, системе действительно придется дать не просто ответ, а предоставить полноценное объяснение».

Через несколько недель после моего возвращения в Калифорнию я слушал, как Дэвид Сильвер, исследователь из проекта Google DeepMind, принимавший участие в разработке AlphaGo, рассказывал про матч с Седолем на академической конференции в Нью-Йорке. Сильвер объяснил, что убойный ход программы во второй игре, удивил его команду не меньше всех остальных. В тот момент они могли наблюдать только за тем, как AlphaGo в реальном времени оценивала свои шансы на победу в результате того или иного хода. Однако после 37-го хода расчет показывал совсем небольшое изменение. И только несколько дней спустя, после тщательного анализа, команда Google сделала открытие: «переварив» предыдущие игры, программа рассчитала вероятность того, что человек на ее месте сделал бы тот же самый ход лишь в 1 случае из 10 тысяч. Кроме того, практика игр AlphaGo показывала, что, сыграв таким образом, она получит на удивление сильное позиционное преимущество.

Поэтому машина в некотором роде знала, что Седоль будет совершенно ошеломлен таким ходом.

По словам Сильвера, Google рассматривает некоторые варианты коммерческого применения технологии, включая разработку интеллектуального помощника и инструмента для сферы здравоохранения. После конференции я спросил его о важности общения с ИИ, лежащего в основе этих систем.

«Интересный вопрос, — сказал он после небольшой паузы. — Для некоторых приложений это может быть важно. Например, в здравоохранении общение с ИИ моджет быть полезно для понимания причины того или иного решения».

На самом деле, по мере того, как системы искусственного интеллекта становятся все более изощренными и разносторонними, нам все сложнее представить себе, как мы сможем общаться с ними без использования языка, без возможности спросить их: «Почему?». Более того, способность общаться с компьютерами легко и непринужденно сделает их на порядок полезнее, а выглядеть все это будет как какое-то волшебство. В конце концов, язык — наш самый могущественный способ разобраться в том, как устроен окружающий мир, и как мы можем взаимодействовать с ним. В общем, пришло время нашим машинам наверстать упущенное.

Продолжайте следить за обновлениями блога международной процессинговой компании PayOnline и первыми читайте переводы самых интересных материалов зарубежных изданий о технологиях.
Автор: @cigulev Will Knight
PayOnline
рейтинг 90,23
Система электронных платежей

Комментарии (83)

  • +3

    Не знаю, причем здесь онлайн платежи, но статья была очень интересной, большое спасибо за перевод)

    • +1
      Пожалуйста! Именно в этой статье платежи не при чём :)
      Для большего интереса со стороны читателей мы стараемся писать не только на тему платежей, но и про технологии вообще.
      Но большинство постов в наших блогах именно про финтех:
      https://habrahabr.ru/company/payonline/
      https://geektimes.ru/company/payonline/
      • –6
        Проблема искусственного мышления с использованием языка уже решена в России группой «Айноу».
        • 0
          можно поподробнее?
          • 0
            Можно! Что именно Вас интересует?
            • 0
              А «решена» это «я знаю, как сделать», «я сделал» или «я сделал и оно самостоятельно работает для реальных практических задач»? Если последнее, то интересно, для каких именно задач у вас получилось использовать ваше решение.
        • 0

          Почитал чуток ваши комментарии и посты на Хабре. Ладно, Эдуард, умничать и важничать вы к своим годам научились, это заметно. Мне стоит вам объяснять то, что умничать и важничать может почти любой более-мене развитый человек? И что резкость и высокомерие во всех ваших постах говорят о вашем культурном невежестве? Всё-таки, по-моему — надо. Наиболее глупый и невежественный человек — наиболее высокомерный. Вы ведь знаете историю про фараона, который из-за своего высокомерия в конце-концов полез даже в разразившееся по воле Всевышнего море? Уверен, что знаете, вы ведь связаны с Исламом, как я понимаю.


          Надо понимать, что Хабр — это не тот ресурс, на котором можно просто кинуть народу какую-то умную и важную фразу и сразу заиметь по этой причине кучу уважения к себе, также, как это можно спокойно сделать в окружениях менее развитых и подкованных людей.


          Ну да ближе к сути. Покажите всем нам на каком-нибудь факте то, как вы решили эту самую проблему искусственного мышления, дорогой наш Эдуард Хачукаев. Мне в первую очередь самому интересно понять, чем вы так сильно гордитесь, ведь у вас действительно есть определённый уровень знаний в области ИИ, как это видно из ваших сообщений, пусть и написанных в крайне высокомерной и неприятной для восприятия форме. Главное, чтобы ещё и результат какой-то ощутимый был тоже для человечества от всего того, что вы знаете… Ну так покажете что-нибудь?)

          • 0
            Сначала обзываете человека хамом, а потом просите. Что за манеры?
            Затем оцениваете человека, как невежественного, и хотите УЗНАТЬ от него что-то. Где логика?
            • –1

              У вас явно видно что есть знания, как я сказал. Просто надо подавать их людям в более мягкой форме, тогда и людям будет намного интереснее вас читать. Разве плохо проявить немного мягкости по отношению к молодому поколению?)


              Невежество бывает разных видов, я говорил о культурном невежестве и высокомерии.

              • 0
                Я сделал пост из одной следующей фразы:
                «Проблема искусственного мышления с использованием языка уже решена в России группой «Айноу».»

                Вы вместо обсуждения поста по существу начали давать мне различные оценки; указывать, как мне себя вести и такое прочее. Я не приемлю императивы и наглые комментарии.
                • –1

                  Проблем нет, есть другой человек, который задал вам тот же вопрос, без всего, что вы неприемлете. Пока что, как обычно, ничего, кроме умных и важных слов, от вас не удалось получить и в том случае. Вопрос человек задал достаточно ясный: что конкретно решила ваша компания в сфере ии.

                  • –1
                    Группа Айноу НЕ занимается ИИ. Она решила проблему искусственного мышления.
                    • –1

                      Ну, прекрасно. Причём здесь тогда все ваши сообщения в данной теме? Ведь статья посвящена ИИ. "Где логика?".


                      Хотя если честно, по-моему, между этими двумя терминами вообще нет разницы, а если и есть, то разница больше в том, что вы лично подразумеваете под тем или иным термином. Кажется, вы сами для себя выдумали такой термин как "искусственное мышление" и подразумеваете под ним какой-то определённый спектр задач, который вы где-то там у себя решили.


                      И вопрос всё ещё остаётся открытым: может, покажете на реальном примере, как вы решили хоть какую-то проблему? Пусть это будет "искусственное мышление". Вы изобрели какой-то инструмент, который помогает людям решать какие-то задачи? Или что? Ведь если вы что-то сделали, на это ведь можно где-нибудь посмотреть?

                      • –1
                        Группа «Айноу» сумела научить компьютер мыслить, а не только считать.
                        • 0
                          Это не так. Никто ещё эту проблему не решил.
                          Иначе были бы доказательства, а их нет.
                        • 0

                          Это же прекрасно) Можно ли увидеть какие-то примеры того как он мыслит?

        • 0
          Нет, не решена.
          Вранье.
          • 0
            Ваша лаконичная оценка является вердиктом высокой академической инстанции?
            • 0
              >Проблема искусственного мышления с использованием языка уже решена в России группой «Айноу».

              Ваш лаконичный ответ является вердиктом высокой академической инстанции?
              • 0
                Мой пост — это сообщение РЕШАТЕЛЯ проблемы.
                Система искусственного мышления будет использоваться в боевых роботах, поэтому «ноу-хау» засекречено.
                • 0
                  Всё ясно, слив засчитан. Можешь и дальше минусовать :)
                  Боевые роботы… Российские, надеюсь? ;)
                  http://images.aif.ru/005/354/158e11f6908c98c71effb91f1709edfa.jpg
                • 0

                  Какой смысл тогда писать вообще здесь что-то о вашей работе, если ваша работа должна быть засекреченой?) Военную тайну раскрываете ведь) Теперь заинтересованным лицам намного более понятно в какую сторону покопать.

    • +1
      Присоединяюсь к первому комментарию. Интересная статья, благодарю за перевод.
  • +3
    SHRDLU — не просто набор букв. У американского фантаста Фредерика Брауна есть написанный в 1942 году рассказ «Этаоин Шрдлу» — о разумном линотипе.
    • +1
      Так ведь 'этаоин шрудлу' это, к тому же, две соседние вертикальные последовательности букв на клавиатуре линотипа :)
      В статье как раз есть ссылка на его фотографию)
      • 0
        Это да. Но, думаю, всё-таки тут намекают на рассказ, который достаточно известен: впервые он мне попадался ещё в доинтернетные времена в многотомном сборнике американской фантастики.
  • +1
    Очень порадовала оговорка во врезке про то, что понимание языка искусственным интеллектом так трудно запрограммировать из-за того, что смысл отдельных слов зависит от контекста. С учетом того, что суть естественного интеллекта состоит в способности быстро и точно распознавать контекст, получается, что понимание языка искусственным интеллектом так трудно запрограммировать, потому что трудно запрограммировать интеллект. Кто бы мог подумать? Оказывается, при программировании искусственного интеллекта легко запрограммировать только искусственность, а вот с интеллектом уже намного сложнее.

    Мой любимый пример про смысл слов, который зависит от контекста: «Американцы слишком много жрут». На форуме хейтеров Америки эта фраза будет означать «Граждане США употребляют слишком много пищи». А на автомобильном форуме эта же фраза будет означать «Автомобили американского производства потребляют слишком много топлива». У естественного интеллекта нет никаких проблем с пониманием, поскольку он обычно точно знает, на каком именно форуме он сейчас бессмысленно тратит время.
  • 0
    Проблема контекста — это процесс воспитания. Для человека это занимает годы учебы и практики в конкретной области,
    Причем смена области деятельности низводит, как правило, на нулевой уровень понимания.
    То есть непонимание контекста, точнее его невоспириятие, это не признак низкой интеллектуальности, а отсутвие ус тойчивых когнитивных связей.
    Заметим, что человек часто действует стереотипно, не проявляя интеллекта, как возможности творческой оценки ситуации.
    Это и дает обычно преимущество компьютеру в использовании стереотипов, как возможности более быстрого их перебора.
    • 0
      Неспособность распознать контекст — это всегда следствие низкого уровня интеллекта. Неслучайно тесты IQ построены таким образом, чтобы выявлять способности испытуемых распознавать закономерности. Закономерность — это когда смысл отдельных элементов зависит от контекста. Чем более запутанную закономерность человек может распознать, тем более широкий контекст он способен схватывать. И эта его способность численно выражается через коэффициент IQ.
      • 0
        Про IQ —
        Стивен Хокинг (Stephen Hawking), британский физик-теоретик IQ=160,
        Дольф Лундгрен (Dolph Lundgren), шведский актер, режиссер, сценарист и продюсер IQ=160,
        Джордж Буш мл. (George Bush), американский политик, экс-президент США IQ=125,
        Сильвестр Сталлоне (Sylvester Stallone), американский актер, сценарист и режиссер IQ=54
        И что
        • +1
          Диаметр Земли — 12742км,
          Марса — 6779км
          Юпитера — 139822км
          Фобоса — 9км

          Но при чём тут все эти цифры и что хотел ими сказать?
        • 0
          Не знал про Лундгрена. Я думал, что из актёров выдающимся интеллектом обладает только Джеймс Вудс. Правда у него действительно выдающийся показатель — 180. Одно время он входил в топ-5 (не среди актёров, а среди вообще всех людей). И про Сталлоне любопытно. Помню, как Кончаловский рассказывал, что с ним очень сложно работать, потому что он тупой. Все тогда подумали, что он просто завидует. Ведь у Сталлоне есть Оскар, а у него — нет. Теперь понятно, что дело не в зависти.
        • 0
          Сильвестр Сталлоне (Sylvester Stallone), американский актер, сценарист и режиссер IQ=54

          Тут явная опечатка, 154, а если нет, то укажите, пожалуйста, источник.
          • 0
            Мне тоже слабо верится, даже просто после ознакомления с его биографией. Да и не может хороший актёр быть тупым.
      • +2
        Если не изменяет память, то на данный момент многие ученые заявляют о, по сути, бесполезности IQ метрик, так как тесты очень старые и не соответствуют действительному историческому контексту. В общем, обновить их надобно.
        • 0
          Конкретные IQ тесты могут и устареть. Но принцип всё равно останется прежним и в новых тестах. Поскольку интеллект — это способность распознавать закономерности/контексты (т.е. способность к самообучению на произвольных данных), то общая идея измерения уровня интеллекта всё равно должна сводиться к тому, чтобы выявить, насколько сложные закономерности человек может распознать. Даже у обезьян способности к обучению проверяют через умение распознавать закономерности. Конечно, обезьян тестируют чуть-чуть по-другому. У них нет такой мелкой шкалы уровней, как IQ, а есть всего три уровня обучаемости. На самом деле, даже два, поскольку третьего уровня ни одна обезьяна пока не продемонстрировала. Есть даже гипотеза о том, что животные в принципе не способны к третьему уровню, что это особенность людей (кстати, далеко не всех… но многих). Но в любом случае концептуально тест для людей и тест для обезьян ничем не отличаются. Всё равно решение теста сводится к выявлению закономерностей.
          • 0
            Безусловно, принцип тот же. Думаю, эти самые ученые предлагают обновить те самые устаревшие тесты(коих, думаю, немало) в соответствии с нашим временем, так как мышление наше уже несколько отличается от мышления «старой гвардии». Грубо говоря, в то время как раньше мышление было «вглубь», то сейчас, в нашу информационную эпоху, захлебываясь во все поступающей и поступающей информации, мы больше смотрим не «вглубь», а «вширь».

            Но я слишком «вширь», слишком поверхностно, знаком с этой темой, к сожалению, поэтому могу ошибаться.
            • 0
              Я не думаю, что «вглубь» и «вширь» — это два равнозначных типа мышления. Это не альтернативы одного уровня. «Вглубь» на порядок лучше (эффективней), чем «вширь». Хотя на первый взгляд может показаться, что наоборот. Об этой проблеме даже есть фильм — «Области тьмы». Там один чувак (Брэдли Купер) наглотался каких-то инновационных колёс и стал мыслить супер быстро. Но, к сожалению, только «вширь» (очевидное ограничение скоростного мышления). Всё, что он делал, — это очень быстро пропускал через себя поверхностные сведения. Выражаясь метафорически, он очень эффективно гуглил. И поначалу казалось, что он очень крут. Его буквально распирало от собственной крутости. Но только до тех пор, пока он не вступил в конфликт с тем, кто мыслил «вглубь» (Роберт де Ниро). Тот поимел его как мальчика. И никакие инновационные колёса, ускоряющие мышление, не помогли. Просто Де Ниро был фундаментально прошарен, имел глубокие знания о том, как всё в мире устроено, а не узнавал о чём-то за пять минут до того, как использовать эти знания. И благодаря этому он смог грамотно разыграть эффектную многоходовку, против которой тот, кто умел только гуглить, ничего противопоставить не смог.
              • 0
                А я и не говорю, что они равнозначны и уж тем более, что «вширь» размышлять лучше. Отнюдь. Сам стараюсь придерживаться абстрактно-логического мышления, но лично по себе замечаю, что информации действительно много поступает за единицу времени, поэтому иногда бывает очень сложно не начать барахтаться в этом океане, вместо того, чтобы в него занырнуть поглубже.
            • 0
              Это на самом деле проблема. Пример, сидит человек за телевизором или крутит ленту в социальных сетях. День за днем. Информации он получает много, о спаривании слонов, о предвыборной гонке в США, про олимпиаду, про большой взрыв. Но информация крайне поверхностна. Мозг подстраивается под такое времяпрепровождение (аппаратно, зрительные зоны усиливаются, за счет остальных зон, кровообращение усиливается, электрическая активность) и человек требует новой информации, как наркотик. Аналог «развития» вширь, поверхностное, мозаичное мышление. Мелкая проблема вгоняет человека в ступор — идей нет.

              Полезнее было бы взять любую головоломку, и решать её, изолированно от потока информации извне. Аналитические способности важнее, практичнее. Вся жизнь состоит из таких головоломок, возникла проблема — решаешь её, как личную проблему, так и производственную.

              Но если сравнивать поверхностное сканирование веселых картинок или аналитику, в основном людям приятнее смотреть вширь. Хотя и анализировать тоже интересно, есть множество игрушек головоломок и они востребованы, просто нужно втянуться в процесс.

              Да и для мозга полезнее. У нас есть вахтерша, весьма активная в возрасте под 80 лет, и по работе с запасом справляется, и общаться с ней любят все. Телевизор как-то не смотрит, в свободное время разгадывает кроссворды.

              Количественно оценить процессы было бы интересно. Например просидел год за телевизором, на сколько упадет IQ? На 5-10 балов и обратимо, или более и необратимо? Наверняка исследования были, но найти их сложно будет.
              • 0
                Я могу лишь добавить свое предположение, что из-за огромного потока информации, обрушивающийся на нас каждый день, мозг попросту не в силах обработать такие количества и перестает ее должным образом обрабатывать, позволяя ей просто течь через себя(уж простите мне мой пространный метафорический слог), попросту запоминая некоторую ее часть, что и обуславливает поверхностное знание многого, а на деле ничего.

                Попытка же информацию не только сохранять, но и обрабатывать ее, анализировать, — вот истинное искусство и к чему нужно стремиться.
                И мне кажется, что даже если различные игрушки-головоломки и востребованы, это все-таки далеко не панацея и на общую картину влияют мало. Я больше склоняюсь к тому, что проблема даже не столько «эпохальная», сколько социальная(или даже социально-экономические, особенно если учитывать теорию экономического детерминизма): ведь это в обществе культивируется не ум и образование, не развитие индивидума, а его способность потреблять товары, а товар проще всего впарить тогда, когда клиент, скажем так, глуповат.
                • 0
                  Вы ухватили суть почти точно. Проблема не только социальная, а скорее социально-культурная. Это гораздо хуже. Чисто социальную проблему можно было бы исправить путём относительно простого управляющего воздействия на социум. А вот социально-культурные явления намного более устойчивы. Во-первых, они стабильно самовоспроизводятся. Во-вторых, на любые попытки управляющего воздействия отвечают агрессивным сопротивлением. Если интересно углубить понимание вопроса, то есть хорошая книга Д. Иванова «Виртуализация общества. Версия 2.0». Там всё подробно расписано: и что происходит… и к чему в конце концов всё придёт.
                  • 0
                    Собственно, я потому и добавил, что «исходя из экономического детерминизма» это проблема шире и глубже(и снова эти слова), чем просто социальная. Она социально-экономическая потому, что экономический базис, находясь в диалектической связи с остальными сферами жизни общества и индивида, формирует соответствующие культуру, нравы, общественно-политичесий устрой и т.д. То есть, таким образом, говоря, что проблема социально-экономическая, я подразумеваю, что в нее уже входят и социальные, и социально-культурные, и этические, и политические «and so on, and so on».
                    • 0
                      К сожалению, это просто неверно. Идея о том, что экономика лежит в основе всего и предопределяет всё остальное, — это всего лишь догма, принятая в качестве основной в рамках вполне конкретной культурной традиции — Нового времени. Другими словами, расхожее представление о том, что всё вращается вокруг экономики и подчинено её законам, — это не объективное описание реальности, внутри которой существует проблема, а часть самой проблемы.
                      • 0
                        Ну-у, не совсем Нового времени, наверное. Все-таки этот догмат наибольшее влияние имел, пожалуй, именно в веке ХХ, да и сейчас имеет такой же статус в марксистской среде(дальше Маркса кинуть взгляд им не позволяет некий религиозный трепет).
                        На самом деле, сейчас можно очень легко скатиться в извечные споры детерминистов и индетерминистов. Как бы я не любил вездесущий ныне релятивизм в гуманитарных науках, например, в философии, но это именно тот случай, когда и у тех, и у других есть вполне достойные и убедительные доказательства своей точки зрения, на мой взгляд. Поэтому предлагаю оставить этот вопрос и не спорить о «курице или яйце».
                        • 0
                          Марксизм сам по себе — это явление Нового времени. Так что вполне естественно, что и марксизм тоже основан на этой догме. Пожалуй, это единственное, в чём нет противоречий между марксизмом и либерально-рыночным фундаментализмом. И оба этих политических учения возникли в Новом времени.

                          Для спора тут нет повода. Очевидно, что экономикоцентризм лежит в основе не только марксизма. В противном случае одно из двух: 1) либо вы марксист; 2) либо вы не говорили выше про то, что экономика — основа всего.
                          • 0
                            Тут, пожалуй, вы правы, не могу не согласиться.

                            Нет, я не марксист, пусть в некоторых вопросах он мне и импонирует, да и слово «если» в моем "если рассматривать с позиций ..." говорит о том, что я лишь предполагаю, а не утверждаю. Так что это скорей второй вариант.
      • 0
        Задача любого теста IQ выявить «общую способность к обучению». И лучшими тестами среди психологов считаются на общий интеллект «Культурно-свободный тест интеллекта Кетелла» и «тест прогрессирующих матриц Равена», так как они лучше справляются с задачей выявить насколько быстро и эффективно способен испытуемый освоить логико-синтетические задачи.

        Так что наличие взаимосвязи не означает наличия причинно-следственной связи.

        sbnur в интернете много гуляет подобных списков и практически в каждом из них значение строго рандомное. и ни в одном из них не указано по какой методике проводилось обследование и на основании какого протокола собирались данные. Существует огромное множество шкал и тестов, где в качестве конечного значения подразумевается IQ, однако без методики это просто бессмысленная цифра, так как её нельзя стандартизировать и соотнести с каким-либо тестом. Ну и само собой не все существующие методики научно признаны.
        • 0
          Не «общую способность к обучению», а только способность к обучению 3-го уровня… т.е. умение распознавать контекст внутри другого контекста, который в свою очередь находится внутри третьего. Тесты IQ позволяют определить только уровень этой способности. И только она представляет собой интерес. А способность к обучению 2-го уровня тестировать не имеет смысла. Она одинакова у всех людей. И даже есть у многих животных.
          • 0
            И только она представляет собой интерес.

            Сама по себе она интерес представляет только инвитро, где отсутствуют синергетические эффекты систем.
  • 0
    Способности суть лишь предпосылка интеллекта
    Интеллект — это работающая объемная структура когнитивных связей на основе имеющихся знаний и развитых навыков
    Таланты надо обязательно учить — гениев учит просто жизнь — у них врожденный навык самостоятельного создания когнитивных связей

    Кстати, IQ, будучи тестом по нескольким контекстам, дает осредненную картину — поэтому лучше всего подходит для посредственностей. как и любой тест

    А про Сталлоне наверное точно ошибка — так что сорри — тем более он мне все равно нравится
    • 0
      Кстати, IQ, будучи тестом по нескольким контекстам, дает осредненную картину


      Верно.

      поэтому лучше всего подходит для посредственностей


      Не верно.

      Подходит одинаково для всех. Мозг у всех устроен одинаково, одна и та же генетическая программа, и мизерные отличия в структуре (интересует кора лобных доле в плане IQ), в количестве серого вещества, общем здоровье (понятно что травмы мозга или забитые сосуды это плохо). Даже более того, измерил один параметр, можно с высокой вероятностью предсказать остальные, корреляция весьма значительна (статистики за 100 лет накоплено достаточно, думаю её еще пересмотрят по технологиям обработки Big data).

      Нет таких людей, что не могут говорить, не понимают речь, проблемы с устным счетом, но гении в квантовой механики и легко находят доказательства теоремы Пуанкаре.

      А вот ИИ может быть именно таким, части человеческих способностей нет, часть гипертрофированы, и типичный IQ тест ему не подходит. Парадоксально, все люди одинаковы, и измеримы IQ тестом, а ИИ все разные и не измеримы. Пример тот же АльфаГо, по тестам в игре IQ самый сильный на планете, даже с некоторым отрывом, во всём остальном ноль.

      Ну вот пример не посредственности, самый умный человек планеты, вполне стабильные результаты с детства до старости (и у детей её кстати тоже), фамилия намекает что и предки чем-то выделялись.

      Точно определить, насколько высокий IQ у вос Савант, очень сложно, так как науке известно очень малое число людей с таким интеллектом. Поэтому по результатам различных тестов коэффициент интеллекта вос Савант определяется как 167+, 186, 218, 228 и 230. Вос Савант утверждает, что прошла свой первый тест на интеллект (тест Стэнфорда-Бине) ещё в 1956 г., когда ей было всего 10 лет. Тогда её результат составил 228 (иногда указывается округлённое значение — 230).


      Есть небольшие отклонения (не надо путать с разными системами измерения IQ), но это самый крайний, единичный случай в измерении IQ.

      Точка зрения что все люди уникальны, IQ тест ничего не значит мне нравится, «романтичная» такая и вдохновляющая, типа захотел, поучился и смог всё. Но статистикой не подтверждается. Да и новые данные о строении мозга тоже дополняют картинку.
      • 0
        То что она состояла в двух распавшихся браках уже снижает её аналитические способности. А с учетом до сих пор сохраняющегося разделения на физиков и лириков, очень сильно снижает значимость теста в силу его специфичности. В сумме это дает тот же эффект что и проблема узкой специализации в науке, когда центр открытий смещается в смежные области не покрываемые узкими специалистами. А с учетом того что узкая специализация требует широкой координации, то проблема согласования широко-мелко и узко-глубоко далеко не надуманная и тест IQ в её решение не помощник. Хотя, правды ради, тест всё же развивается и в новые редакции вроде как вносятся коррективы учитывающие новые взгляды на тестирование.
        • +1
          То что она состояла в двух распавшихся браках уже снижает её аналитические способности.


          По моим наблюдениям, точно наоборот, признак социального успеха, активности, общительности, интеллекта. Бегут то не к маме от наркомана, что мебель выносит. А меняют серебро на золото, или просто по новым интересам, сохраняя хорошие отношения.

          А с учетом до сих пор сохраняющегося разделения на физиков и лириков, очень сильно снижает значимость теста в силу его специфичности.


          Нет там никакой специфичности, тест универсален, охватывает физиков, лириков, умных и глупых, праведников и бандитов, богатых и бедных, всех рас и национальностей.

          В сумме это дает тот же эффект что и проблема узкой специализации в науке, когда центр открытий смещается в смежные области не покрываемые узкими специалистами. А с учетом того что узкая специализация требует широкой координации, то проблема согласования широко-мелко и узко-глубоко далеко не надуманная и тест IQ в её решение не помощник.


          Я ничего не понял.

          Открытия есть и покрываемые узкими специалистами, просто они не попадают в СМИ. Intel совершенствуя техпроцесс, уменьшая нормы по нанометру, делает тысячи открытий в год, но они столь сложны, что в СМИ не попадают (типа аномальной активности органического катализатора в среде фтора в узком диапазоне температур).

          У Intel и особенно у Google, кстати средний IQ в компании свыше 130, самая «умная» компания на планете, при том что принимают на работу не по IQ тестам. Корреляция тем не менее очень сильна.

          Хотя, правды ради, тест всё же развивается и в новые редакции вроде как вносятся коррективы учитывающие новые взгляды на тестирование.

          Принципиально ничего не меняется, суть изначально ухвачена удивительно точно.

          Можно и без тестов обойтись, головоломкой например, как это делал Эйнштейн. Не решил головоломку, в ученики не годишься, медленно соображающим с ним не по пути, чтобы время даже не тратить. В головоломке никакой математики, просто «бытовая» логика. На глазок, для решения нужно IQ эдак 130 (существенно выше среднего), для решения в уме еще выше.
          • 0
            По моим наблюдениям, точно наоборот, признак социального успеха, активности, общительности, интеллекта.

            Ну если считать подбор устойчивого состояния системы методом тыка аналитическим решением… наверно тогда да, признак успешности. Но в таком случае придется признать что и стартап дважды банкротившийся и взлетевший только на третий раз обладает мощнейшей и успешной аналитической командой. Однако инвесторы так не считают и никогда не вкладываются в однажды облажавшихся. Распавшийся брак признак наличия неучтенных, или неверно оцененных, факторов при принятии решения о постоянстве отношений. Это решение принимается не с бухты барахты, а после определенного, достаточно длительного общения в разных ситуациях и с прицелом на длительные отношения, т.е. решение стратегическое. Если такое решение оказалось ошибочным, то ни о какой сильно продвинутой аналитике говорить не приходится. Тем более что отношения между людьми имеют весьма нечёткий характер и роль аналитики приобретает существенно большее значение чем при манипуляциях с абстрактными вещами в той же математике. Говоря иначе, если отменный тактик виртуозно владеет аналитикой, то аналогичный стратег владеет ею в совершенстве. Так что наиболее значимым критерием развития аналитизма является глубина достоверного прогноза и каждая ошибка сильно снижает итоговый бал.
  • +1
    «Терри Виноград, чьи труды в области автоматической обработки текстов считаются классическими, выделил следующие типы неоднозначностей:
    1) лексическая неоднозначность, которая встречается в предложениях, содержащих омонимы. Например, “She is fair.” В рамках данного предложения мы не можем определить, идет ли речь о женщине со светлыми волосами, о красивой или о справедливой женщине.
    2) структурная неоднозначность, которая возникает в тех случаях, когда предложение может быть описано более чем одной грамматической структурой. Примером такой неоднозначности является предложение “They knew about their mistake.”, где речь может идти как об их собственной ошибке, так и об ошибке других людей.
    3) неоднозначность глубинной структуры, которая возникает в тех случаях, когда два различающихся по смыслу прочтения предложения могут быть описаны только одной синтаксической структурой. Например, “Chickens are ready for dinner.” То ли цыплята будут обедать, то ли их съедят на обед.
    4) семантическая неоднозначность, которая встречается, когда некоторое слово или словосочетание может выполнять в предложении различные роли. Например, в предложении “The English are standoffish.” речь может идти как об англичанах вообще, так и о каких-то конкретных представителях данной нации.
    5) прагматическая неоднозначность, которая возникает, когда разным случаям соответствует одинаковая синтаксическая структура. Так в предложении “She dropped the pen on the table and broke it.” невозможно однозначно определить, что именно было сломано — карандаш или стол.»
    • 0
      Ну, стоит заметить, что неоднозначность в этих примерах так же существует и для человека. И обычно такого построения фраз либо пытаются избегать, либо есть какой-то дополнительный контекст, который делают фразу понятней. Хотя 5му случаю никакой контекст, конечно, не поможет.
      • 0
        Неоднозначности как раз и демонстрируют, что без контекста обойтись нельзя.

        К пятому случаю контекстом является жизненный опыт, статистика наблюдений окружающего мира.
        • +1
          У меня в инструкции по техбезу как-то встретилось «При переноске вдвоем предупредите товарища, если груз дальше нести не под силу, и спокойно положите его на пол.».
    • +1
      Ну и на русском можно подобные случаи найти, в качестве юмористического

      зеленая зелень зеленит зеленую зелень

      перевод, причем не шуточный, от Google
      green green green green green


      Аналогичные обороты:
      Don't trouble troubles till troubles trouble you.

      Немецкая шутка:
      Wenn Fliegen nach Fliegen fliegen, dann fliegen Fliegen
      den Fliegen nach.
      • 0
        Есть пример и пожестче: «James while John had had had had had had had had had had had a better effect on the teacher»
  • 0
    Любая интеллектуальная проблема является задачей поиска с неопределенной областью поиска по неясному критерию.
    Способность человека заключается в том. что он может произвольно сократить область поиска и установить критерий — машина пока на это неспособна.
    Человек способен создавать решение (гордиев узел) — а машина пока исполнитель, пусть быстрый и эффективный
    • +1
      1. В статье же указано, что как-раз с игрой так и было, ИИ сократил область поиска, установил некоторый критерий
      На 37 шаге AlphaGo решила поставить черный камень в нелепое, на первый взгляд, положение

      Даже более того, самообучился игре, создал свою личную систему. Ранее такие системы создавали только группы ученых (например советская шахматная школа, итальянская школа, школа Стейница, Чигорина). Тут ИИ зацикленный сам на себя «разобрался» с кучей нюансов. Только вот никогда не сможет их сформулировать для нас.

      2. Человек оказался не способен создать и понять такое решение, не смог аналогично сократить область поиска игровой ситуации. Только уже по факту свершенного, по окончании игры.

      3. Большая часть людей тоже исполнители и не смогут работать с абстрактными и неопределенными данными. Пример та же гипотеза Пуанкаре, 8 миллиардов человек, долгое время, не смогли её решить, за хорошие деньги.

      4. Так же как и у ИИ у человека есть аппаратные ограничения, часто грустные, если в процессоре транзисторы переключаются на частоте 10-100 ГГц (тактовая естественно ниже, так как нужно дождаться переключения длинных цепочек транзисторов), скорость передачи сигналов 300 000 км/с, то у человека время реакции нейрона несколько миллисекунд, у нейрона есть время восстановления вообще 200 мс (тактовая частота 5 Гц?), скорость распространения по нервам 0.12 км/с, невозможна масштабируемость.
      Есть «программные» глюки, например мозг в поисках зоны комфорта может подсесть на наркотики, типа нейронная сеть нашла локальный максимум мотивации и на этом «зависла». Кстати ИИ при обучении тоже может застопориться на локальном максимуме, и есть специальные алгоритмы по выводу его оттуда, в поисках глобального максимума.
      • 0
        В статье было сказано
        «Вместо этого программа проанализировала тысячи игр и сыграла миллионы партий против самой себя. В числе прочих ИИ-техник программа использовала один из наиболее популярных в настоящее время методов под названием «глубинное обучение». Его суть сводится к математическим вычислениям, имитирующим происходящие в головном мозге процессы, когда связанные слои нейронов активизируются во время опознания и запоминания новой информации. Программа выучила себя сама с помощью многочасовой практики, постепенно совершенствуя способность интуитивно чувствовать стратегию. Тот факт, что в результате этого она смогла победить одного из сильнейших игроков в Го, представляет собой по-настоящему знаковое событие в развитии машинного обучения и искусственного интеллекта.»

        По сути тот же принцип, что используется при игре в шахматах — запоминание множества партий и анализ их на основе критерия — машина помнит больше, ищет быстрее — использование заложенных принципов сужения области поиска позволяет выбрать решение.
        Человеческий интеллект не обладает такими возможностями — поэтому они соревновательны в стандартизуемых областях поиска — а это не созидание, а сортировка и поиск
        Другими словами машина гордиев узел не разрубит
        • 0
          По сути тот же принцип, что используется при игре в шахматах — запоминание множества партий


          Не совсем, это еще в древней статье 2014 года разбирали, статья интересна скептическим подходом в возможностям ИИ.

          Так называемый «фактор ветвления» — среднее количество ходов, доступных в каждом раунде — в шахматах составляет 35, в го — 250. Игры с сильным ветвлением затрудняют работу стандартных алгоритмов, использующих правило минимакса для создания дерева возможных комбинаций. Даже с учётом анализа не всех, а только перспективных ветвлений для более глубокого анализа. То, что работает в шашках и шахматах, не работает в го.


          Запоминание не помогло, помогло глубинное обучение.
          • 0
            В принципе глубинное обучение — это то же запоминание, только во многоуровневой системе, то есть создание и запоминание новых полученных абстрактных классификационных признаков.
            Такой подход именно машинный, так как он предполагает большой объем используемых данных и большую скорость их обработки.
            Способности машины и человека лежат в разных областях возможностей

            • 0

              А нельзя ли перейти дальше и перевести эти квалификационные признаки в некие правила, работающие в условиях игры (и дальше уже работать с ними)?

              • 0
                Это и делается в глубинном обучении
                Но ведь это и есть сужение контекста — то есть сделать крутой автомат, который только играет в го
                Это характерный признак машинности интеллекта
                Хотя (скажем философски) современное общество этим занимается
                • +1
                  то же запоминание, только во многоуровневой системе, то есть создание и запоминание новых полученных абстрактных классификационных признаков.

                  По моему нет принципиальных отличий от человека именно в этом аспекте. Я примерно так же играл бы. По собственному опыту интуитивно стремишься подогнать ход игры любой под привычный лад, радуясь знакомым «абстрактным классификационным признакам».

                  Ну и абстрактность запоминания у человека доходит до смешного, достаточно нескольких линий чтобы абстрактно узнать в них кошку, как самый часто встречающийся образ.
        • 0

          Да не тот же принцип там используется. Вы вообще изучали AlphaGo? Помимо глубинного обучения, там еще используется метод Монте-Карло, а он сильно завязан на случайности. Т.е. машина не сыграет два раза одну и ту же партию. Человек тоже часто руководствуется случайностью, и иногда это срабатывает.


          А утверждение, что человек играет по совсем другим принципам, предоставлено без доказательств.

          • 0
            Не хочется спорить впустую — (к слову, нехорошо в кратком обсуждении, делать выводы о том, что кто-то чего-то не читал)
            Меж тем ваша фраза о сильной завязанности метода Монте Карла на случайности вызывает улыбку — ведь этот метод не просто связан, а основан на вероятностных методах.
            Далее — применение этих методов требует заданного набора вероятностей выбора, то есть в этом отношении имеется детерминизм. Можно сказать логика алгоритма.
            А человек в отличии от автоматов алогичен в принципе
            • 0

              Что значит человек алогичен? Если не всегда можно отследить логику, это не значит, что ее нет. Не всегда ее можно формализовать.

              • 0
                Это и есть алогичность — ну какой скрытый смысл в развязывании дискуссии
  • 0
    Will Knight пришёл к замечательному и единственно эффективному на сегодняшний день заключению — искусственный разум, как часть искусственного интеллекта, зиждется на технологии мышления, использующей языковый инструмент.

    Таким образом, компьютер не может мыслить с помощью иных математических, статистических и других псевдо ухищрений.

    Всякие ИНСы есть не что иное, как инструменты для выявления ЗАКОНОМЕРНОСТЕЙ. Не более. Никогда ИНСы не смогут мыслить, так как они не приспособлены для языковых кодирований и декодирований.
    • –1
      Бла-бла-бла… Как всё категорично :) Есть доказательства?
      • 0
        Да, есть. Первое — это статья Уилла Найта. Второе — это 50 лет ИНСам и 50 лет импотенции. Третье — ИНС — это, фактически, матрица наподобие фотоматрицы, которая может фиксировать мгновенные значения элементов матрицы, но не может думать, то есть, простейший регистратор с высокой математикой.
        • –1
          Всё это хорошо, а доказательство где?
          • 0
            А Вы не владеете термином «доказательство»?
            • 0
              То есть вы хотите, чтобы я поверил голословным фразам какого-то чувака в интернете без доказательств?
              Ну тогда держите моё утверждение: Ленин — гриб. И радиоволна. А доказательство — это то, что его броневик похож на грибницу.
              Да что там! Я даже видео могу предоставить: https://www.youtube.com/watch?v=wmEFusVe29g
              А у вас даже видео нет
              • 0
                То есть вы хотите, чтобы я поверил голословным фразам какого-то чувака в интернете без доказательств?

                Безотносительно к персоналиям и сути претензий: ситуация симметрична. Для предоставления доказательств ведь тоже нужно обоснование. Если я приду к Хокингу и потребую предоставить мне доказательства любого из его утверждения, он вполне резонно выставит меня за дверь после вопроса «А кто вы собственно такой?»
                Что уж говорить о научной дискуссии, если даже для банального пиара нужно работать с ЦА, а не со всеми сразу.
  • 0
    Очень интересно будет посмотреть, как робот с ИИ будет общаться с 3-5 летним ребенком, у которого 100 «почему?» возникают в минуту. Как бы в процессе не исчерпались ресурсы :-)
    • 0
      Я бы на месте ИИ сказал бы «не знаю» и направил бы ребенка к маме/папе/бабушке/дедушке.

      P.S. Child-detected algorithm какой-нибудь.
      • 0
        Почему «не знаю»? Можно ребенку дать поток обучающей информации, показать мультик типа «Смешарики пин код», «Фиксики», «Почемучки», на 99% можно найти в них ответ на вопрос или на смежные темы.
        После этих мультиков ребенок может спрашивать «что внутри электрона?» и ответить родителям весьма затруднительно, или в силу того что этого мало кто знает, или в силу сложности ответа с элементами квантовой механики )))

Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

Самое читаемое Разработка