Искусственный интеллект и почему мой компьютер меня не понимает?

Проблема искусственного интеллекта: машины могут научиться, но не могут понимать

Сегодня все говорят об искусственном интеллекте (ИИ). Но, если вы посмотрите, ни Siri, Alexa или просто автокоррекцию на клавиатуре в вашем смартфоне, вы поймете, что мы не создаем системы искусственного интеллекта, мы лишь создаем программы, способные выполнять строго определенные задачи.

Компьютеры не могут «мыслить»

Когда бы компания не заявила о том, что выпускает очередную ИИ-фишку, обычно это означает, что она использует машинное обучение для построения нейронной сети. Машинное обучение – это способ, позволяющей машине «научиться», как лучше всего выполнять определенную задачу.

В этой статье мы ни в коем случае не критикуем машинное обучение! Это потрясающая технология, которую можно применить в огромном количестве сфер. Но это не ИИ в полном смысле. И понимание ограничений машинного обучения поможет вам понять, почему современные ИИ-технологии не так развиты, как нам бы того хотелось.

Искусственный интеллект из научно-фантастических фильмов и книг – это подобие компьютеризированного или роботизированного мозга, способного размышлять о вещах и понимать их так, как это делает человек.

Обратите внимание

Такой искусственный интеллект можно назвать искусственным общим интеллектом (ИОИ). Это означает, что он способен думать о ряде различных вещей и применять свои умозаключения в ряде разнообразных ситуаций.

С ним связано понятие «сильного ИИ», оно подразумевает возможность существования у машины сознания, близкого человеческому.

Такими технологиями мы пока не обладаем. Мы даже близко не на этой стадии. Такие программы, как Siri, Alexa или Cortana не способны понимать действительность и думать как человек. На самом деле они вообще не понимают, что происходит вокруг.

Системы искусственного интеллекта, которыми мы обладаем, очень хорошо обучены выполнять определенные задачи, но только при условии, что человек их этому обучит. Они обучаются, но не понимают, что они делают.

Компьютеры не понимают

У Gmail появилась новая функция “Smart Reply”, предлагающая ответы на электронные письма. Но она распознает фразу «отправлено с iPhone» в качестве типичного ответа. Она так же предлагает фразу «Я тебя люблю» для ответа на множество самых разнообразных писем, включая рабочую корреспонденцию.

Это происходит из-за того, что компьютер не понимает значения этих фраз. Он просто научился тому, что многие люди отправляют сообщения с подобным текстом. Компьютер не знает, действительно ли вы хотите признаться в любви своему боссу или нет.

Источник: https://www.kv.by/post/1056045-problema-iskusstvennogo-intellekta-mashiny-mogut-nauchitsya-no-ne-mogut-ponimat

Почему мы неправильно воспринимаем искусственный интеллект

Когда мы говорим об ИИ, разговор неизбежно переходит в разряд фантастических сценариев, мол, если ИИ не заберет все наши рабочие места, то убьет нас всех. Но по правде говоря, ИИ существует уже почти 60 лет, все больше и больше проникая в каждую часть нашей жизни. Наши ИИ могут считывать ваши эмоции, решать сложные геометрические вопросы, рисовать картины, как Винсент Ван Гог.

Игнорируя то, что на самом деле было создано и используется в настоящее время, и вместо этого сосредоточившись на версии ИИ, которая еще не прибыла, человечество обзавелось слепым пятном в этой технологии.

Это слепое пятно искажает наше понимание ИИ, его полезность и прогресс, который был достигнут в этой области. Оно также приносит нам много разочарования, когда появляющийся ИИ не работает, как мы предполагали. У этого явления есть название — эффект ИИ.

У эффекта ИИ две фазы. Первая: люди не видят программы, с которыми взаимодействуют как с «разумными», и поэтому считают, что исследования в сфере ИИ ни к чему не приводят. Но нас уже окружает ИИ, и его становится все больше, поэтому мы, как лягушки в кастрюле с водой, не понимаем, что вода становится все горячее и горячее.

ИИ, который у нас сейчас есть, не похож ни на что, что большинство людей рисует в своих научно-фантастических мечтах, — на машины, которые думают и действуют как человек, общий искусственный интеллект (ОИИ).

Вместо этого у нас есть узконаправленный искусственный интеллект (УИИ), который очень хорош в выполнении конкретных задач вроде распознавания снимков или биржевой торговли.

Когда же будет создан ОИИ, это пока остается за гранью понимания.

Важно

Карлос Гестрин, генеральный директор компании Dato из Сиэттла, которая строит алгоритмы ИИ для анализа данных, говорит, что это может быть потому, что УИИ не похож на человеческий интеллект.

С другой стороны, это также порождает страх перед неизвестным «будущим» ИИ, который, похоже, всегда будет прятаться за углом. Когда люди говорят о том, что ОИИ становится возможным, разговор всегда сопровождается страхами на тему того, во что этот ИИ внезапно может превратиться.

Этот страх перед будущим человекоподобным ИИ опирается на предвзятое ощущение, что эта технология, которая существовала годами, внезапно приобретет человеческие атрибуты, и является антропоморфизацией.

Но учитывая то, как мы пытаемся создать ИИ сейчас, маловероятно, что у ИИ будущего будут атрибуты человека — элементы вроде эмоций, сознания или даже инстинкта самосохранения, по мнению Йошуа Бенгио, компьютерного ученого из Монреальского университета.

Потому что разумный ИИ будет обладать совершенно другим интеллектом, чем человек.

В конце концов, самая умная машина в мире думает совсем не как человек

Шимон Уайтсон, ученый из Амстердамского университета, объяснил, почему люди по умолчанию присваивают ИИ человеческие черты.

Благодаря исследованиям в сфере ИИ, мы обнаруживаем, что может существовать много других типов интеллекта. Не каждой интеллектуальной программе нужно быть по сути человекоподобной. Когда технология ИИ научится хорошо делать одну конкретную задачу, она вообще не будет похожа на человека, а большинство людей не будут видеть в ней ИИ. Но когда появится ОИИ, он тоже не будет похож на человека.

«Интеллект — это не единственное свойство системы, — говорит Томасо Поджио из MIT. — Интеллект — это одно слово, которое может относиться ко многим вещам.

Мы измеряем интеллект по тому, как хорошо человек или компьютер может выполнять задачу, включая задачу обучения.

По этому показателю компьютеры уже намного умнее людей во многих задачах, включая запоминание вещей, арифметику, вычисления, торговлю на бирже, посадку летательных аппаратов».

Чтобы покончить с парадоксом — дико мечущимся между убеждением, что ИИ еще не прибыл и что когда он прибудет, нам всем хана, — нужно пересмотреть понятие человеческого интеллекта.

Совет

Нужно понять интеллект в более широком смысле и понять, что машина, которая делает работу, является разумной.

Чем раньше это произойдет, тем легче будет сосредоточиться на преимуществах и реальных рисков, которые, по мнению исследователей, может принести будущий ИИ.

Источник: https://Hi-News.ru/technology/pochemu-my-nepravilno-vosprinimaem-iskusstvennyj-intellekt.html

Почему невозможно создать искусственный интеллект: сознание как испытание бытия/бытием

Проблема сознания заключается в парадоксальной ситуации: мы, разумные существа, обладаем сознанием, оно у нас есть, но мы не знаем что такое сознание. Мамардашвили, определяя эту ситуацию, писал: «Сознание — это парадоксальность, к которой невозможно привыкнуть».

Раскрывая особенность парадоксальности сознания, он указывал на две трудности в изучении сознания. Первая состоит в том, что само понятие «сознание» является предельным философским понятием, таким как понятие «бытие». А такого рода понятия не поддаются классическому родо-видовому определению.

Другая трудность проистекает из того, что сознание «весьма странное явление, которое есть и которое в то же время нельзя ухватить, представить как вещь». Однако, есть еще одно обстоятельство, делающее проблему сознания особенно сложной.

Дело в том, что само сознание всегда экранировано содержанием сознания. Поясню подробнее суть этой трудности.

В свое время Кант обсуждая вопрос о природе единства содержания мысли, писал в «Критике чистого разума», что условием единства содержания нашей мысли является «трансцендентальное единство апперцепции». О чем у него здесь идет речь. Вот в руке у меня лист бумаги.

Эту ситуацию содержательно можно выразить следующим образом: «сейчас я держу в руке белый лист бумаги». Это словесное выражение будем считать содержанием мысли. В этой мысли соединены содержательно различные элементы.

В ней присутствует представление о времени (слово «сейчас»), представление обо мне («я»), об одном из органов моего тела («рука»), представление о некой вещи («лист бумаги»), представление о свойстве этой вещи («белый»), представление о пространственном расположении листа бумаги относительно моего тела («в руке»). Кроме выраженных представлений, в этой мысли имплицитно содержаться, то есть словесно не выражены, и другие элементы ситуации, например, качество листа бумаги. Очевидно, что это все качественно (и потому содержательно) разные представления. Одни источником имеют тактильные ощущения (качество бумаги: гладкая/шероховатая), другие моторно-двигательные (держу в руке), третьи зрительные (белый цвет листа) и так далее.

Кант задает вопрос, что позволяет разным представлениям, из которых состоит всякая мысль, образовывать целое единство этой мысли? И он отвечает — трансцендентальное единство апперцепций. Это означает, что все данное в наглядном представлении многообразие объединяется при помощи трансцендентальной апперцепции в понятие объекта.

Обратите внимание

Кант говорит, что это объединение есть акт, который сопровождает всякую содержательную мысль и может словесно выражен так: «Я мыслю».

Иными словами, чтобы мысль о том, что сейчас я держу в руке белый лист бумаги, не распадалась на различные по содержанию представления, а была одной мыслью, эта мысль должна всегда сопровождаться актом мышления «Я мыслю».

Это «Я мыслю» и есть действие сознания в нас. Но трудность познания этого акта состоит в том, что акт «Я мыслю» всегда экранирован содержанием сознания «сейчас я держу в руке белый лист бумаги».

И даже если мы обратим внимание на сам этот акт, то он становится содержательной мыслью, которая, чтобы быть единой, сама должна сопровождаться актом «Я мыслю».

В этом случае мы имеем следующее словесное выражение «Я мыслю, что Я мыслю», где второе «Я мыслю» уже содержание мысли, для которой условием является акт первого «Я мыслю». Несмотря на то, что оба эти выражения одинаково составлены из одинаковых слов, это, несомненно, две разные «вещи».

Первая выражает акт мысли, вторая — ее содержание. И для их познания нужны разные методы и инструменты.

Здесь мы попадаем в ситуацию, которая хорошо известна в физике элементарных частиц (квантовой механике), когда невозможно одновременно, одними и теми же приборами, одними и теми же методами описать положение элементарной частицы и ее импульс (то есть указать вектор ее движения и скорость). Либо мы знаем, где находиться частица, но не знаем ее скорости в данный момент и направление движения, либо знаем вектор и скорость, но не знаем ее место положения.

Акт «Я мыслю» представляет собой некое существование, соотнесенное с сознанием, которое Мамардашвили и Пятигорским было названо «состояние сознания».

Термином «состояние сознания» они обозначали по преимуществу независимое от любого мыслительного содержания «состояние нашего психофизиологического механизма, соотнесенного с сознанием».

Замечу, что состояние, описываемое термином «мыслю» («Я мыслю»), принадлежат к тому же классу, что состояния «наблюдаю», «вспоминаю», «воспринимаю», «воображаю» и тому подобное. Это все состояния, так или иначе, связанны с сознанием, сознание в них присутствует.

Важно

Присмотримся теперь внимательнее к этому классу состояний сознания. В качестве примера рассмотрим состояние сознания «Я наблюдаю стол». Что мы в нем можем обнаружить? Прежде всего, то, что оно по своему составу не однородно.

Есть элемент в этом состоянии, который связан с внешне данной вещью, данность которой определяет содержание нашего состояния. То, что мы наблюдаем (мыслим, вспоминаем и так далее) — стол. В акте наблюдения то, что обозначено термином «стол» составляет содержание этого акта, этого состояния сознания.

И это содержание наблюдения (содержание состояния сознания) не определено внешней вещью. Стол, как наблюдаемое мною тело, не задает содержание того, что именно я наблюдаю.

Отсюда следует, что содержание наблюдения тела как явления осознаваемого, определяется не самим этим телом, а полностью задается сознанием. Особо подчеркну, не существование тела задается сознанием, а содержание наблюдения тела.

Это означает, что в состоянии сознания «Я наблюдаю стол», стол выступает содержательным элементом наблюдения и, стало быть, находится «в» сознании как содержание наблюдения. Следуя традиции после Гуссерля, наблюдаемый стол является интенциональным предметом.

Интенциональный предмет, в нашем случае «стол», составляет содержание сознания, он коррелятивен с реально существующим столом, но задан сознанием.

Обратим внимание на то, что пребывание в состоянии «Я наблюдаю стол» содержит в себе два «элемента»: реальный стол и «интенциональный» стол. А между ними зазор. И этот зазор непроходим для мысли, точнее, он не может быть преодолен интеллектуальными средствами, так как в него включены элементы, не принадлежащие мышлению.

Читайте также:  Новый шаг к созданию искусственного интеллекта

Какие это элементы? Мамардашвили и Пятигорский в своей работе называли один такой элемент — это «наш психофизиологический механизм». Очевидно, что без него невозможно состояние «Я наблюдаю стол». Укажу еще на ряд таких элементов.

Совет

Состояние наблюдения (восприятия, воображения, мышления и так далее) — это состояние нашего существования, бытийное состояния. Специфика нашего существования — сознательного существования — в философской традиции после Хайдеггера определяется термином «экзистирование».

Экзистирование — это существование способом понимания собственного существования. В чем специфика такого существования, «существования пониманием»? Что такое понимание?

Понимание можно рассмотреть как «внимание», «внятие», «принятие», «впускание», «ассимиляцию» некоего сущего в себя. Когда я понимаю некое сущее, например, когда я понимаю (или не понимаю) предмет своего наблюдения как стол, то тем самым я принимаю (или не принимаю) это сущее как/в содержание моего состояния.

Иначе говоря, понимание здесь выступает своеобразным испытанием как модусом моего бытия, экзистирования. И этот модус по природе своей амбивалентен. С одной стороны, понимая (внимая, принимая и так далее) сущее, я испытываю себя на способность понять сущее, а, с другой — я испытываю само сущее на его истину, выведывая ее у сущего.

Понимание предстает в этом случае в виде проверки на способность быть и себя, и сущего. Иными словами, в состоянии сознания в качестве необходимого элемента включены не только интеллектуальные процедуры, но и мои бытийные (и онтологические, и онтические) характеристики. В частности в понимании «участвует» такая структура как бытие-с-другим.

Рассмотрим подробнее, каким образом эта бытийная структура определяет состояния сознания и его содержания.

В качестве примера такого влияния сошлюсь на анализ восприятия — а это состояние, как я уже отмечал выше, того же класса, что и наблюдение — в работе Жиля Делеза «Мишель Турнье и мир без Другого».

В этой работе Делез показывает как другой в качестве элемента совместного бытия определяет мое восприятие. Прежде всего, отмечает Делез, другой оказывает организующее воздействие на мое поле восприятия предметов и идей.

Обратите внимание

Это организующее воздействие проявляется в том, что узнаю или чувствую воспринимаемый предмет в качестве определенного предмета, то есть такого, который отличается от другого предмета. Я могу не знать и не понимать существа отличия одного предмета от другого. Я лишь фиксирую само отличие.

Вот именно для восприятия отличия, границы другой и предоставляет мне возможность различения. Он выступает условием способности различения, разграничивания.

Рассмотрим этот момент подробнее.

Разделим акт восприятие на последовательные шаги от начала до узнавания предмета: акт получения перцептивных ощущений от воспринимаемого предмета (выявление фигуры на фоне); акт «фокусирования» внимания на выделенном предмете (все остальные предметы сливаются в неразличимый фон); акт терминирования выделенного предмета, его словесное обозначение и акт интерпретации (то есть «узнавания» предмета), как акт включения значения (оно фиксировано термином) предмета в систему уже существующих значений (например, в систему языка). Таким образом, мы имеем четыре шага определения предмета в восприятии. Отвлечемся сейчас от того, что можно по-иному членить этот процесс. Здесь важно, что этот процесс имеет шаговую (или звеньевую, или этапную — или какую-нибудь еще) структуру. Важно подчеркнуть то обстоятельство, что между шагами, звеньями, этапами существуют зазоры. Они важны как раз тем, что в этих зазорах пребывает нечто, что, с одной стороны, не является структурным элементом восприятия, а с другой — без них восприятие не может быть реализовано. Другой как раз и выступает необходимым элементом восприятия. Поясню этот тезис.

Посмотрим на зазор, который находиться между актом сосредоточения внимания на предмете и актом называния предмета, наделения его именем.

Для того чтобы этот переход состоялся необходимо, чтобы уже существовали слова, существовала речь, существовал язык, существовала культура называния, культура говорения. А все это возможно, только если существует другой.

Более того, существование другого уже необходимо между первым и вторым шагом, чтобы состоялся процесс узнавания воспринятого предмета. Это Делез и имеет в виду, когда говорит, что другой выступает условием различения предметов и идей.

Фигуру другого в процессе восприятия нельзя интерпретировать «ни как объект в поле моего восприятия, ни как субъект меня воспринимающий» (хотя эмпирически, если другой человек находится в момент моего восприятия, он может быть такими объектом и субъектом).

Так чем же в таком случае является другой? Делез пишет: «… Это прежде всего структура поля восприятия, без которой поле это в целом не функционировало бы так, как оно делает». Без этой структуры — структуры другого — восприятие не могло бы состояться. Эту структуру другого он называет «априорный Другой».

Априорный, поскольку эта структура уже существует до всякого реального восприятия, выступая его условием. Функция этого априорного Другого (или структуры другого) состоит в том, чтобы выступать основанием других, которые будут осуществлять эту структуру в каждом конкретном поле восприятия.

Важно

Иными словами, эта структура дает возможность состояться опыту конкретного восприятия. Поэтому эту структуру — структуру другого — Делез называет «структурой возможного». «Другой как структура, это выражение возможного мира».

Интересно посмотреть, что производит структура другого («априорный Другой» у Делеза) в таком состоянии сознания как восприятие. Главное следствие действия этой структуры, считает Делез, это разграничение моего сознания и его объекта.

Поскольку другой вносит в мир различения, границы, кромки, переносы, которые обеспечивают появление предмета в поле восприятия, то этот предмет, в качестве воспринимаемого отделен от сознания и ему противостоит.

Иначе говоря, возникают феномены «воспринимающий» (то есть сознание) и «воспринимаемый» (то есть предмет). До этого сознание и его объект были слиты в одно целое и их не существовало в качестве отдельных феноменов. Именно другой обеспечивает разграничение сознания и его объекта.

Далее, становление разграничения сознания и его объекта есть одновременно возникновение пространства, так как возникают различные места — «здесь» и «там». Мое сознание (или «воспринимающий Я») занимает место «здесь», а воспринимаемый предмет занимает место «там».

Наконец, появление другого превращает мой мир в прошлый мир, опрокидывает мое сознание в позицию «я был». Другой приносит с собой возможный мир и тем самым вносит в мир временные разграничения. Возникает время в своих феноменах прошлого, настоящего и будущего.

Упомяну еще один элемент, который находится в состоянии сознания и обеспечивает как само существование этого состояния, так и его содержание.

В своей работе почти полувековой давности «Анализ сознания в работах Маркса» Мамардашвили показал, что сознание, по Марксу, есть «функция, атрибут социальных систем деятельности», и что содержания и формообразования сознания производятся «из переплетения и дифференциации связей системы (социальной деятельности — С.Г.

), а не из простого отображения объекта в восприятии субъекта». Иными словами, содержания сознания (и мышления, как феномена сознания) являются производными от системы социальной деятельности человека.

Совет

Таким образом, состояния сознания включают в себя как необходимый элемент социальную составляющую индивидуального бытия, то есть ту систему общественных связей, в которую включен индивид как социальный субъект. Элементы, которые были рассмотрены — зазор между реальной вещью и интенциональным предметом, социальная система, структура другого в работе сознания (и мышления) — свидетельствуют о неконтинуальности сознания (мышления).

Зазор, который содержит в себе неинтеллектуальные компоненты не может быть преодолен за счет работы мысли. Он преодолевается лишь индивидуальным усилием быть — испытанием бытия/бытием — как актом не интеллектуальным, а экзистенциальным.

Иначе говоря, «работа» мысли требует в качестве необходимых условий жизненные (физиологические, психические, социальные и так далее), а не только интеллектуальные элементы.

Это обстоятельство и позволяет поставить под сомнение попытки создания искусственного интеллекта.

Читайте в Bookmate:

Источник: https://theoryandpractice.ru/posts/7857-golenkov

Мы не понимаем искусственный интеллект, потому что не понимаем… интеллект

Провозвестники искусственного интеллекта, в числе которых Элон Маск, Стивен Хокинг и Рэй Курцвейл, прогнозируют, что к 2030 году машины обзаведутся сознанием человеческого уровня интеллекта.

Вместе с тем последует череда приятных, нейтральных и ужасных последствий.

К примеру, Маск, Хокинг и десятки других исследователей подписали в январе 2015 года петицию, по которой машины на основе ИИ могут привести к «ликвидации болезней и бедности» в ближайшем будущем. Это, очевидно, приятное последствие.

Но есть и нейтральное: Курцвейл, который первым предложил , считает, что к 2030-м годам люди смогут загружать свое сознание, тем самым сливаясь с машинами. Из пугающих последствий: Маск предвидит будущее, в котором люди станут домашними животными для владык из машины. Забегая дальше, почти все сходятся во мнении, что однажды люди исчезнут как вид в пользу машин, слившись с ними или нет.

Сказать, что эти заявления имеют под собой почву — ничего не сказать. За последние десятилетия мы наблюдаем бурный всплеск развития технологий, компьютеры становятся мощнее и доступнее, не по дням, а по часам.

В 2011 году суперкомпьютер Watson в интеллектуальной игре, используя не самый сложный (по нынешним меркам) искусственный интеллект и обработку естественного языка.

Будущее наступает быстрее, чем мы успеваем к нему приспособиться.

График наступления технологической сингулярности Курцвейла основан на законе возрастающей отдачи: чем мощнее становятся компьютеры, тем быстрее они развиваются.

Это график чрезвычайного экпоненциального роста, и мы сейчас стоим на пороге крутой кривой, которая ведет нас к разумным машинам и миру, в котором будут царить роботы. В это верят Курцвейл, Маск, Хокинг и многие другие исследователи ИИ. В конце концов, это так по-человечески —  верить.

Обратите внимание

К 2045 году мы и сами можем стать машинами. Нам просто нужно создать достаточно продвинутый ИИ, и потом бам — разумные машины.

Только без меня.

В данной статье мы говорим об интеллекте не как о мере человеческих знаний, но как о синониме разума.

Я не спорю: технологии развиваются все быстрее; мы наблюдаем это сейчас и нет никаких причин полагать, что мы достигнем этакого плато в развитии вычислительной мощи. Однако переход от продвинутых технологий к искусственно созданному сознанию — это гигантский прыжок. Самые многообещающие заявления на тему ИИ основаны на ложной предпосылке: что мы понимаем человеческий разум и сознание.

Эксперты в области ИИ работают с конкретным определением интеллекта: способностью обучаться, распознавать образы, отображать эмоциональное поведение и решать аналитические задачи.

Тем не менее это лишь одно определение интеллекта из моря спорных и смутно сформированных представлений о природе познания. Нейрология и нейропсихология не предоставляют конкретное определение интеллекта — скорее, располагают многими.

Различные области, даже различные исследователи определяют интеллект совершенно разными, порой взаимоисключающими и несопоставимыми терминами.

В широком смысле ученые рассматривают интеллект как способность адаптироваться к окружающей среде, реализуя собственные цели, или даже способность выбирать лучший вариант при конкретных условиях.

Однако такое определение базируется в основном на биологическом понимании интеллекта, больше связанном с эволюцией и естественным отбором.

Важно

На практике нейрологи и психологи много спорят на тему разума, как между собой, так и с учеными других областей.

Рассмотрим следующий взгляд психологов Майкла Рамси и Сесила Рейнольдса:

Абзац выше не дает никакого конкретного описания. И психология является лишь одной из десятка отраслей, связанных с человеческим мозгом, сознанием, разумом, интеллектом.

Наше понимание технологий растет и ширится постоянно, но наше понимание более расплывчатых понятий — интеллекта, сознания, разума — остается смехотворно детским. Технологии готовы вывести нас в эпоху людей на основе компьютера, но нейробиология, психология и философия — нет. И эти пробелы в понимании безусловно замедляют хронологию развития ИИ.

Большинство экспертов, изучающих мозг и разум, соглашаются по крайней мере в двух вещах: мы не знаем, конкретно и единогласно, что такое интеллект. И мы не знаем, что такое сознание.

Определение человеческого интеллекта и сознания остается вотчиной скорее философии, нежели нейронауки. Поэтому давайте размышлять философски.

Сознательное творчество

Маск, Курцвейл и другие сторонники гипотезы технологического сингулярности снова и снова вторят, что нарастающая вычислительная мощь автоматически приведет нас к машинному сознанию и интеллекту человеческого уровня. Они настаивают на том, что чем быстрее развиваются технологии, тем быстрее совершенствуются и другие области науки.

Курцвейл признает необходимость понять человеческий разум прежде, чем точно воссоздать его в машине, но его решение — обратная инженерия мозга — пересекает области нейробиологии, психологии и философии. Она требует слишком многого: будто бы построить мозг — это то же самое, что и построить сознание.

Два этих термина, «мозг» и «сознание», не являются взаимозаменяемыми. Возможно, мы сможем воссоздать мозг; это бесконечно сложная структура, но она остается физической вещью, которую мы однажды сможем полностью картировать, расщепить и заново собрать.

Только в этом месяце IBM заявила, что создала рабочий искусственный нейрон, способный распознавать шаблоны в шумных данных и ведущий себя непредсказуемо, как обычный нейрон.

Тем не менее это все еще не сознание, не разум, не мышление. Даже если ученые разработают технологию для создания искусственного мозга, нет никаких доказательств того, что этот процесс будет автоматически генерировать сознание. Нет никаких гарантий, что машина внезапно станет сознательной. О чем говорить, если мы не понимаем природу сознания, на какое чудо надеяться?

Взять хотя бы такой аспект сознания, разума и интеллекта, как творчество. Само по себе творчество — это относительно разносторонняя и мутная вещь; каждый видит его по-своему.

Для одного человека творческий процесс включает недели, проведенные в отдельной каюте; для другого он начинается с трех стаканов виски; для третьего творчество лежит в непредсказуемых вспышках вдохновения в последние минуты месяца.

Четвертые и вовсе под творчеством понимают сосредоточение в процессе работы, а пятые — в прокрастинации.

Вопрос: будут ли машины с искусственным интеллектом прокрастинировать?

Наверное, нет. Сингулярность предполагает, что в конечном счете ИИ будет в миллиарды раз мощнее человека с точки зрения интеллекта.

Вряд ли ИИ оставит себе такие бесполезные штуки, как прокрастинация, мягкий алкоголизм и сосредоточенность.

Нет никаких сомнений, что однажды программное обеспечение будет способно выводить красивые, творческие вещи с минимальным (или нулевым) вмешательством человека. Но красивые не означает лучшие. Творчество не всегда бывает осознанным.

Источник: https://hinews.mediasole.ru/my_ne_ponimaem_iskusstvennyy_intellekt_potomu_chto_ne_ponimaem_intellekt

Зачем нужен искусственный интеллект?

Не один десяток лет ученые пытаются заставить машину не просто выполнять полученные приказы, а думать самостоятельно.

Память современных компьютеров соизмерима с человеческой, скорость выполнения логических операций – на порядки выше, но смоделировать разум исследователям пока так и не удалось.

О современных вызовах в области искусственного интеллекта (ИИ) рассказывает доцент кафедры вычислительной техники Университета ИТМО Игорь Бессмертный.

– В обывательском понимании искусственный интеллект – это компьютер, обладающий эмоциями и сознанием. А что вкладывают в это понятие современные исследователи?

– Автор термина Джон Маккарти определял интеллект как способность субъекта ставить перед собой цели и добиваться их достижения. Если мы пытаемся наделить интеллектом некое техническое устройство, значит, мы хотим, чтобы оно самостоятельно решало возникающие задачи.

Обратите внимание

Компьютеры способны рассуждать гораздо быстрее человека, но поиск решений методом перебора требует большого количества ресурсов. В начале шахматной партии у игрока белыми есть по два варианта хода для каждой пешки и коня.

Противник в ответ тоже выбирает из двадцати вариантов, и получается, что первый ход у нас 400 возможных комбинаций, во второй – 160000, и так далее. Это называется комбинаторным взрывом, и попытки решить задачу «в лоб» ни к чему не приводят.

Я развиваю антропоморфный подход и считаю, что нам нужно пытаться воспроизвести человеческий мозг на уровне поведения. На протяжении жизни человек постоянно обращается к приобретенным интеллектуальным навыкам. Мы не задумываемся, когда завязываем шнурки или пользуемся таблицей умножения.

Есть навыки более высокого уровня: профессиональный шахматист может «на автомате» обыграть неподготовленного игрока. Количество навыков определяется объемом памяти человека, а у машин ее сейчас более чем достаточно. Нужна такая структура данных, при которых машины будут записывать интеллектуальные навыки и логику их вывода, как был получен каждый факт и навык.

В этом случае мы обеспечим быстрый вывод данных и сможем создавать интеллектуальные системы, которые будут отвечать на сложные запросы.

Например, если мы поищем в интернете температуру кипения воды, то сразу получим ответ, но у поисковых порталов нет готовых ответов на специфические запросы.

Чтобы узнать температуру кипения воды в Тибете, нам придется подключать правила, учитывать зависимость температуры кипения от атмосферного давления, зависимость давления от высоты над уровнем моря, высоту Тибета.

Только после определенных логических действий мы найдем решение, и если внести его в базу знаний, то в следующий раз факт будет извлечен быстро. Также важно при каждом вызове проверять актуальность данных – сейчас мы не задумываемся, что президент США – Барак Обама, но в будущем эти данные устареют.

– Это технически возможно?

– Принципы самообучения реализуют с помощью нейронных сетей. Сейчас их используют для прогнозирования, торгов на биржах, в некоторые автомобили встраивают системы распознавания пешеходов.

Важно

Иногда интеллектуальное поведение устройства необходимо – там, где невозможно находиться человеку-оператору, или в тех случаях, когда это упрощает жизнь. Но каждое такое устройство выполняет узкий круг задач.

Есть роботы-сиделки, роботы-повара, но универсальный искусственный интеллект сейчас, по большому счету, не нужен.

– А как же мечты футурологов о том, что у людей появятся партнеры по разуму?

– Если создавать гомункула, чтобы просто было с кем поговорить, это потребует неоправданно высоких затрат. А использовать компьютер для того, чтобы придумать что-то новое, уже пытались. Теория решения изобретательских задач (ТРИЗ) Генриха Альтшуллера великолепно работала в виде справочников и таблиц.

Но когда ее решили автоматизировать, выяснилось, что ТРИЗ работает только в руках человека-изобретателя. Причина в том, что существует масса фактов, которые никак не формализованы. Считается, что половину своих знаний человек усваивает за первые три года жизни, и мы иногда даже не догадываемся о том, что они есть и что их нужно формализовать.

Если я выпущу предмет, который держу в руках, он упадет на пол; людям это очевидно, а машине – нет. По моим подсчетам, человек должен хранить и уметь использовать в среднем 50 млн фактов. Для сравнения: компания Cycorp составляет онтологическую базу знаний с 1984 года, и за это время накопила всего 3 млн фактов.

Для работы универсальной интеллектуальной системы нужно как минимум на два порядка больше.

– Являются ли современные вопросно-ответные системы вроде WolframAlpha искусственным интеллектом в таком понимании?

– WolframAlpha разрабатывают в первую очередь для решения математических задач, в этом вопросе я бы ориентировался на проекты IBM. В девяностых в IBM создали шахматный суперкомпьютер Deep Blue, и после того, как он обыграл Гарри Каспарова, его собирались использовать в медицинских целях.

Оказалось, что Deep Blue для этого не годится – он не умел обучаться, и для применения в другой области нужно было все начать с нуля.

Сейчас компания разрабатывает суперкомпьютер Watson, который показывает впечатляющие результаты, например, победил людей в телеигре Jeopardy! Но поскольку Watson – коммерческий проект, остается догадываться, какими методами обеспечивается поиск информации, как выполняются цепочки умозаключений и как в IBM решают вопрос комбинаторной сложности.

– Как технологии искусственного интеллекта будут развиваться в будущем?

Источник: http://news.ifmo.ru/ru/news/4794/

Джон Серль – гуру искусственного интеллекта рассуждает о возможностях его создания

Сегодня искусственный интеллект вызывает ряд дискуссий. Некоторые говорят, что уже совсем скоро рядом с нами можно будет встретить «думающих роботов».

Другие утверждают, что это невозможно, потому что устройство не может имитировать человеческий образ мышления, поскольку он совершенно уникален.

Проблему искусственного интеллекта рассматривают с давних времен многие исследователи из очень разных сфер.

Джон Серль (John Searle) является одним из людей, которые о проблеме искусственного интеллекта говорят давно, глубоко, вдумчиво и с довольно широких позиций. Американский философ, родившийся в 30 -х годах XX века, давно занимается философией разума.

Неудивительно, что он также занимается и проблемами искусственного интеллекта. Здесь Серль твердо убежден, что нет никаких сомнений, для того чтобы создать так называемый «сильный AI» (artificial intelligence – искусственный интеллект).

По его мнению, большинство сторонников называет искусственным интеллектом моделирование работы человеческого мозга.

Совет

John Searle создал теорию, согласно которой компьютеры никогда не смогут думать таким же образом, как люди, поскольку они только чрезвычайно продвинутые компьютерные программы, основанные на алгоритмах.

Алан Трьюринг – Британский математик, известный также работой над взломом немецкой шифровальной машины “Энигма”

В настоящее время многие ученые, стремясь доказать существование искусственного интеллекта используют так называемый тест Тьюринга. Его проведение является несложным.

В отдельных комнатах расположены: человек, компьютер и человек, который обычно называется «следователь». Следователи, задают вопросы, ответы на которые получают от обеих сторон.

И человек, и компьютер набирают определенное количество баллов. 

Можно ли построить искусственный интеллект на самом деле?

Джон Серль, однако ставит под сомнение полученные результаты и более конкретно путь, в котором проводится тест. В ответ на тест Тьюринга ученый провел свой собственный эксперимент, под названием Китайская комната.

Результаты этого эксперимента стали причиной широкого обсуждения проблемы искусственного интеллекта. С 1980 года, когда Searle решил опубликовать доказательства, проснулась оживленная дискуссия по данной теме.

Суть эксперимента в том, что в комнате закрывают человека, не знакомого с китайским языком. 

Вне этой комнаты находится группа людей, понимающих китайский. Они передают мне таблички с иероглифами, я же на основании инструкции отдаю им другие таблички с иероглифами. Этих людей можно назвать «программистами», меня – «компьютером», а корзины с табличками файлами.

А теперь представьте, что инструкция составлена таким образом, что мои «ответы» неотличимы от тех, которые бы дал человек, свободно владеющий китайским. В этом случае я прохожу тест Тьюринга. Однако мы-то с вами знаем, что я не понимаю китайский язык и никогда не смогу его выучить таким способом, потому что не существует способа, с помощью которого я мог бы понять значение этих иероглифов».

Так, по Серлю, устроен и компьютер, оперирующий символами, но не понимающий их значения. Из синтаксиса невозможно вывести семантику. А значит, невозможно и построить мыслящую машину. 

Синтаксис и семантика

При помощи синтаксиса можно построить некое сообщение, однако только на основе конкретной и точной инструкции. 

Семантика, то есть, понимание языков является способность только человеческого мозга. По мнению Searle человеческий разум содержит главным образом смысловое содержание.

Эти предположения вызвали волну дебатов, которые длятся по сей день.

Обратите внимание

Противники и сторонники этой теории по-прежнему пытаются подобрать больше доказательств в поддержку своих мнений.

Джон Серль не изменил свое мнение и разработал новую версию китайской комнаты, в которой гораздо проще объяснил принцип работы эксперимента.

Выполнение инструкции 

Джону Серлю принадлежит определение бедного искусственного интеллекта и сильного искусственного интеллекта, который отождествляется с состоянием, когда компьютер можно назвать разумом.

Однако, это потребует от машины понимания содержания, особенно языка. Также необходимо иметь психические характеристики человеческого разума. И таким образом, по мнению ученого, машины, не способны мыслить, как люди.

Этим Searle четко указывает, что получение сильного искусственного интеллекта просто невозможно.

Плохой искусственный интеллект, когда машина способна дать удовлетворительный ответ, однако это делается на основе выполнения команд компьютерной программы и соответствующих операций на символах.

В этом случае компьютер не понимает, переданного или полученного содержимого и основывается исключительно на очень точных инструкциях. Серль утверждает, что такие формы искусственного интеллекта возможны.

Примеры включают компьютеры, которые играют в шахматы, на основе специальных программ и расчетов. Выполнения их действий можно отнести в некотором смысле к умному мышлению.

Для Джона Серля обсуждение искусственного диалекта является делом всей его жизни. Его книга, а также результаты исследований публикуются и подвергаются публичным дебатам. В ней обосновывается мысль о том, что создание и понимание машин, которые могут заменить человеческий мозг является ошибкой.

Читайте также:  Структура искусственной нейронной сети прямого распространения

Источник: https://ledigital.ru/artificial-intelligence/john-serl-about-ai

Как научить компьютеры понимать наши эмоции

Я считаю себя отчасти художником и отчасти дизайнером. А работаю я в лаборатории по разработке искусственного интеллекта. Мы разрабатываем технологии, с которыми вам захотелось бы общаться даже в далёком будущем. Не только через полгода, а через годы и десятилетия.

 И мы не боимся предположить, что люди хотят общаться с компьютерами на глубоко эмоциональном уровне. Чтобы этого добиться, технологии должны стать настолько же естественными, насколько они искусственны. Они должны понимать вас. Ну знаете, как ваша с другом шутка, от которой вы оба катаетесь по полу от смеха.

 Или как разочарованный взгляд, который чувствуется за версту.

Мне кажется, искусство поможет нам преодолеть пропасть между человеком и машиной: мы научимся понимать друг друга, чтобы потом обучить ИИ понимать нас.

Для меня искусство — это способ передать абстрактные идеи, чувства и эмоции с помощью конкретных явлений. И я думаю, это одна из наиболее присущих человеку черт. Мы, люди, чрезвычайно сложные существа. Диапазон наших эмоций кажется бесконечным, и к тому же мы все разные.

 Мы имеем разное происхождение, разный жизненный опыт и разные характеры. Это делает жизнь действительно интересной, но также делает работу над интеллектуальными технологиями чрезвычайно трудной. И сегодня в разработке ИИ есть перекос в сторону техники. В этом есть смысл.

Важно

Ведь все наши качественные характеристики — наши эмоциональные, динамичные и субъективные стороны — необходимо перевести в количественные показатели: в то, что может быть представлено данными, цифрами и компьютерным кодом. Проблема в том, что многие из качественных характеристик не поддаются точному определению.

Например, вспомните, когда вы впервые услышали свою любимую песню.

 Что вы тогда делали?Что вы почувствовали? У вас пошли мурашки по коже? Вы пришли в восторг? Трудно объяснить, да? Иногда наши чувства кажутся очень простыми, но если копнуть глубже, то они окажутся гораздо сложнее.

 И перевод всей этой сложности для машин — это своего рода «полёт на Луну» нашего времени. И я не уверен, что мы сможем ответить на эти глубокие вопросы, используя лишь нули и единицы.

В лаборатории я занимался искусством, чтобы с его помощью создавать более удобный дизайндля новейших технологий. И оно служит стимулом, чтобы находить способы общаться с компьютерами по-человечески. В искусстве мы ищем ответы на самые трудные вопросы: что значит чувствовать? Как мы взаимодействуем друг с другом и откуда знаем, как себя вести? Как интуиция влияет на наше общение?

Возьмём, например, человеческие эмоции. Сегодня компьютеры могут понять основные из них —радость, грусть, злость, страх и отвращение, — переводя их характеристики в математику. А как обстоят дела с более сложными эмоциями? С теми самыми, которые трудно описать другим людям? Как ностальгия.

Для изучения этого вопроса я создал предмет искусства, инсталляцию, где людей просят поделиться воспоминанием. Вместе со специалистами по обработке данных я пытался выяснить, как превратить невероятно субъективную эмоцию в нечто математически точное.

 Мы создали так называемый показатель ностальгии, и в этом суть нашей инсталляции.

 Сначала вас просят рассказать историю, после чего компьютер анализирует её на простые эмоции, проверяет на склонность к глаголам в прошедшем времени, а также ищет слова, которые обычно ассоциируются с ностальгией, такие как «дом», «детство», «прошлое».

 Затем он выдаёт показатель ностальгии, то есть насколько ностальгической была ваша история. И ваш показатель наглядно отображается на этих световых скульптурах, которые являются физическим воплощением рассказанной вами истории. Чем выше показатель, тем более розовый оттенок — как в выражении «смотреть на мир сквозь розовые очки».

Совет

Увидев ваш показатель и его физическое представление, иногда вы соглашаетесь с результатом, а иногда нет. Словно компьютер на самом деле понял ваши переживания. Но в других случаях он ошибается, и тогда вам кажется, что он вас совсем не понимает. Но это действительно показывает, что если мы с трудом можем объяснить свои эмоции даже друг другу, то как же научить компьютер понимать их?

Источник: https://fastsalttimes.com/sections/technology/1866.html

Искусственный интеллект, которого нет

Редакция “Чердака” решила посмотреть, в каком состоянии пребывает разработка искусственного интеллекта. Как выяснилось, слухи о грядущей революции и угрозе для человечества сильно преувеличены, а блеск ИИ-технологий меркнет при выходе за границу рекламных буклетов.

Понятие “искусственный интеллект” (он же ИИ) обычно встречается в трех случаях. В невероятно скучных и невнятных описаниях какого-нибудь “революционного” и “инновационного” программного продукта, который все забудут через полгода.

В статьях “ученые предсказали, что же нас убьет”, все ключевые идеи которых списаны с фантастических рассказов 1950-х годов. И третий случай — в новостях про какую-нибудь научную группу или конференцию, где модный термин употребили для привлечения тех инвесторов, которые производят унылые описания из первого пункта.

Это не значит, что нет хорошего ИИ, но это значит, что искать его надо не там, где про него громче всего говорят. “Искусственный интеллект” в том виде, в котором его проще всего встретить в СМИ, имеет мало отношения к машинному разуму и используется где ни попадя. Стиральная машина с ИИ.

Автоматический переводчик с ИИ — инновационный метод превращения осмысленного иностранного текста в бесполезную кашу из русских слов. Заявления, что в скором будущем грядет “интернет вещей” — разумеется, с искусственным интеллектом в нагрузку. В потоках всей этой чепухи уже практически невозможно найти нечто осмысленное.

Путаница в понятиях Если обратиться к истории, то шумиха вокруг ИИ возникла вскоре после появления электронных компьютеров.

Это было не случайно, поскольку само название computer (и русский термин ЭВМ) предполагало выполнение машиной той работы, которая прежде возлагалась на человека: компьютеры стали выполнять сложные математические расчеты, представлять результаты в виде графика и искать нужную информацию в архиве.

Когда фотограф жмет кнопку в программе обработки изображений, и софт автоматически повышает контрастность с одновременной коррекцией цветового баланса, в дело вступает именно ИИ. Хотя обычно простенький фоторедактор никто так не воспринимает: нам трудно представить, что фоторедактор “думает сам”.

Обратите внимание

Половину всей путаницы вокруг понятия ИИ порождает подмена (чаще всего не осознаваемая) понятия “интеллект” на вроде бы сходное “самосознание”. Будем честны: сегодня люди понятия не имеют о том, как у них получается думать и чувствовать, поэтому все истории про компьютеры с самосознанием еще очень долго будут фантастикой.

При этом научить компьютер делать то, что до этого требовало осознанного вмешательства человека, вполне реально. Такой “ИИ” уже давно существует: проверка орфографии в тексте, автоматически всплывающие подсказки при наборе имени человека в записной книжке телефона, самостоятельно фокусирующаяся на объекте съемки камера — все это демонстрирует возможность заменить человеческий интеллект компьютерной программой.eBay показывает автоматически переведенные предложения товаров на английском. Получается, прямо скажем, так себе. Изображение — скриншот сайта ebay.com

ИИ и тест Тьюринга

Один из отцов-основателей той области знания, которая называется computer science (раньше был термин “кибернетика”, но сейчас он вышел из употребления) Алан Тьюринг предложил такой тест: если интервьюер переписывается с невидимым собеседником и принимает программу за живого человека, такая программа считается примером ИИ.

В 2014 году группа американских программистов, выходцев из России и Украины, представила программу, обманувшую треть судей на соревнованиях подобных систем. Ряд журналистов написал об этом как о “первом в мире прохождении теста Тьюринга”.

Однако детище Владимира Веселова, Евгения Демченко и Сергея Уласеня все-таки далеко от “самосознания” и вряд ли произведет революцию в компьютерных технологиях.

Программа успешно имитировала подростка, но это далеко не самая сложная задача: много ли можно успеть обсудить с 13-летним мальчиком за пять минут? Кроме того, большая часть судей все-таки опознала в “Жене Густмане” компьютерного собеседника.

Тест Тьюринга применяют повсеместно для защиты форумов от спама: пользователю предлагают задачу, с которой компьютеры справиться не могут. Чаще всего нужно ввести текст с фотографии или рисунка, но один раз автору этой статьи попался очень изящный вариант: надо было просто поставить галочку “я не робот”.

Компьютерная программа может уметь распознавать цифры с буквами на фотоснимках, но не в состоянии понять надпись “я не робот”. Существуют системы, которые за несколько секунд превращают фотографию книжной страницы в правильно распознанный текст, специальный сканер может “читать” книги с недоступной людям скоростью, но смысл написанного остается компьютерам недоступен.Вычислительная машина, спроектированная Аланом Тьюрингом для дешифровки немецких сообщений. Сыграла ключевую роль в обороне Великобритании в ходе войны. Снимок Sador / Wikipedia

ИИ в играх

Важно

Программа, которая может обыграть в шахматы чемпиона мира, создана еще в конце прошлого века — она лишила Гарри Каспарова титула непобедимого. Недавно группа канадских исследователей из университета Альберты создала программу для игры в покер.

Ее описание представлено в журнале Science.

Утверждается, что Cepheus (так зовут программу) может обыграть любого игрока: выигрыш компьютеру не гарантирован в конкретной партии, однако при большом числе игр алгоритм обязательно заработает больше очков, чем противник-человек. Круто?

По мнению профессионального игрока в покер Кристофера Холла, программа действительно впечатляет, однако у нее нашлось слабое место: Cepheus не способен менять стратегию в ответ на изменение стиля игры оппонента.

“Моя выборка из 400 партий недостаточна для полноценных выводов, – пишет Холл на страницах The Guardian. — Однако было бы интересно протестировать Cepheus в игре против чемпионов, подобно Deep Blue против Каспарова”.

Компьютеры научили играть в игры с намного более сложными правилами, чем в шашках или шахматах. Но математики предпочитают писать алгоритмы для классических игр.

На скриншоте: Sid Meyers Civilization IV с модом Realism InvictusС 1989 года проводятся международные соревнования алгоритмов в нескольких десятках игр, от шахмат и го до скрэббла (“Эрудит” в русской редакции): игровой ИИ развивается непрерывно несколько десятков лет без каких-либо радикальных прорывов.

Даже игры с достаточно простыми правилами не всегда хорошо алгоритмизируются, а в компьютерных стратегиях, шутерах или RPG особенно сложный ИИ зачастую просто не востребован.

Зачем учить монстров самостоятельно искать места для засады, если их расположение все равно задает дизайнер уровня, а срок жизни монстра от силы десять секунд?

Впрочем, стратегии простых игр компьютерам даются хорошо: например, онлайн-программа, опубликованная на сайте газеты The New York Times, очень быстро “раскусывает” ваши алгоритмы (или понимает, что у вас его нет) и обыгрывает противника в 100% случаев. Попробовать сразиться с роботом можно тут.

ИИ в соцсетях

Теоретически из опубликованной в социальных сетях информации можно извлечь массу полезного — например, мнение потребителей о том или ином товаре или сообщения о заражении гриппом.

Совет

Нам обещали предсказывать эпидемии гриппа на основе анализа твитов или поисковых запросов, однако пока можно говорить разве что о наблюдении за уже начавшейся эпидемией. Пример свежего научного исследования на эту тему — статья американских ученых, которые проанализировали микроблоговые записи из Нью-Йорка.

Авторам удалось зафиксировать корреляцию “гриппозных” твитов с числом обращений к врачам, но говорить о полноценном прогнозе не приходится: когда люди пишут в соцсетях о своей болезни, эпидемия уже в разгаре.

Маркетинговые приложения столь же ограниченны: да, вы можете узнать о том, что ваш товар плох по многочисленным публикациям со словами “плохо”, “гадость” и “разочарование”. Однако честный опрос сотрудников в отделе техподдержки даст куда более полезную информацию.

При этом живой человек может выловить из соцсетей и блогов по-настоящему важную информацию. Так, британец Элиот Хиггинс снискал себе славу непревзойденного военного аналитика, просто очень внимательно изучив данные в микроблогах и тысячи роликов в YouTube. Ничего подобного ИИ делать не может.

ИИ в поисковых системах

Источник: https://chrdk.ru/tech/ai

Ссылка на основную публикацию
Adblock
detector