- Хороший, плохой, злой: возможен ли эмоциональный искусственный интеллект
- Владимир Ильин
- С каждым годом разработки в сфере искусственного интеллекта становятся все совершеннее — технология распознавания лиц, (действительно) толковые голосовые помощники и даже искусство, созданное алгоритмами, становятся частью нашей жизни. Остается подождать, когда искусственный интеллект возьмет последний рубеж человеческих возможностей и научится испытывать эмоции, а сценарий фильма «Она» станет реальностью. Возможно ли это на самом деле? Или машины так и останутся послушными, но холодными слугами человека? T&P разбираются, как искусственный интеллект обучают чувствам, почему эти разработки так необходимы для нашей повседневности и что обещает будущее, где машины сравняются с человеком.
- Сакральное против познания
- Наладить коммуникацию
- Научить эмоциям
- Эволюционная гонка
- Будущее искусственного интеллекта
- Будущее ИИ
- Последствия и этические проблемы сильного ИИ
- Недоброжелательный ИИ
- Права ИИ
- Как поучаствовать
Хороший, плохой, злой: возможен ли эмоциональный искусственный интеллект
Владимир Ильин
С каждым годом разработки в сфере искусственного интеллекта становятся все совершеннее — технология распознавания лиц, (действительно) толковые голосовые помощники и даже искусство, созданное алгоритмами, становятся частью нашей жизни. Остается подождать, когда искусственный интеллект возьмет последний рубеж человеческих возможностей и научится испытывать эмоции, а сценарий фильма «Она» станет реальностью. Возможно ли это на самом деле? Или машины так и останутся послушными, но холодными слугами человека? T&P разбираются, как искусственный интеллект обучают чувствам, почему эти разработки так необходимы для нашей повседневности и что обещает будущее, где машины сравняются с человеком.
Сакральное против познания
В обывательском представлении искусственный интеллект никогда не сможет приблизиться к человеческой эмоциональности из-за нашей особой душевной организации, которую невозможно трансплантировать в машину. Однако сложности с созданием эмоционального ИИ, напротив, связаны с тем, что люди не так уж хороши в эмпатии. Мы совсем не похожи на идеальные эмоциональные машины, которые могут с легкостью расшифровать чувства окружающих. Наша эмпатия серьезно ограничена уникальным опытом, усваиваемыми стереотипами и индивидуальными психоэмоциональными реакциями. Так, европеец из среднего класса вряд ли поймет, какие чувства выражает вождь африканского племени, и наоборот.
С одной стороны, мы полагаем, что эмоциональность — сакральный дар, исключительная привилегия людей. С другой — знаем о ней слишком мало, рассказывает специалист по ИИ и машинному обучению и основатель портала 22century.ru Сергей Марков. По его мнению, отказ от восприятия эмоциональности как священного позволит найти новые методы для изучения эмпатии. С помощью обратной разработки (исследование готового устройства или программы с целью понять принцип его работы и обнаружить неочевидные возможности. — Прим. T&P) исследования нейронных сетей и машинного обучения можно узнать что-то принципиально новое о человеческой эмоциональности. «Машинное обучение позволяет в ряде случаев, что называется, поверить гармонию алгеброй — на смену догадкам и гипотезам приходит более надежное знание, основанное на статистике больших данных», — полагает Марков.
Наладить коммуникацию
Возможно, мы бы и не пытались научить машины эмпатии просто из любопытства, но растущее число автоматизированных систем (от голосовых помощников до самоуправляемых автомобилей) делает эмоциональный ИИ насущной необходимостью. Главная задача, которая стоит перед специалистами по машинному обучению, — упростить работу с разными интерфейсами и на уровне ввода, и в процессе вывода информации. Частота общения с компьютерами очевидно растет, но сами сервисы и системы пока не понимают, почему мы трясем телефоном: от злобы или от смеха.
Эмоциональный интеллект уже сейчас востребован во многих бизнес-проектах. От рекламы, которая, подстраиваясь под эмоциональное состояние потенциального клиента, увеличивает продажи, до технологий распознавания, которые, обнаружив самого нервного человека в толпе, помогут поймать преступника.
Исследователям предстоит поработать с эмоциональным интеллектом и из соображений безопасности. «Решения, которые принимаются компьютерами, не должны казаться психопатическими. Если машина действует в мире, где живут люди, она должна уметь принимать во внимание „человеческие обстоятельства“, то есть быть способной к эмпатии. Стандартный пример: робот-диагност, отправляющий пожилого человека на сложную операцию, должен учитывать риски, связанные со стрессом. Беспилотный автомобиль, начисто лишенный эмпатии, в определенном контексте тоже может натворить бед», — считает философ Кирилл Мартынов.
Алармисты вроде философа и специалиста по антропоцену Ника Бострома, отмечает Мартынов, утверждают, что проблема «потери чувствительности» у сверхразума, резко выделяющегося на фоне человеческого уровня, вполне реальна. Эту проблему пытаются предотвратить уже сейчас при помощи юридических ограничений. При таком подходе создателей ИИ законодательно обяжут наделять разработки элементами эмоционального разума, необходимыми для эмпатии.
Научить эмоциям
Нетривиальная задача создания эмоционального ИИ упрощается с появлением новых инструментов вроде машинного обучения. Сергей Марков описывает этот процесс следующим образом: «Можно взять несколько сотен тысяч аудиозаписей человеческих высказываний и попросить группу людей-разметчиков сопоставить с каждой из этих фраз набор маркеров „эмоционального алфавита“. Затем случайным образом отбираются 80% фраз — на этой выборке нейросеть обучают угадывать эмоциональные маркеры. Оставшиеся 20% можно использовать, чтобы убедиться в исправной работе искусственного интеллекта». В другой модели обучения, которую описывает Марков, нейросеть получает бо́льшую самостоятельность. В ней ИИ сам категоризирует фразы по схожей эмоциональной окраске, темпу речи и интонации, а позже учится синтезировать свои высказывания на основе полученных категорий. Так или иначе, главным ресурсом для обучения искусственного интеллекта становятся большие массивы данных.
Эволюционная гонка
Говоря о машинном обучении и удобных интерфейсах, мы концентрируемся на практических задачах и их решениях. Но как насчет появления «настоящей» (как у людей) эмоциональности у искусственного интеллекта? Сможет ли машина любить, грустить и злиться? «Тот факт, что мы переживаем наши собственные эмоции как „настоящие“, связан лишь с тем, что так настроена наша когнитивная система, возникшая в ходе эволюции. Особи, способные испытывать эмоции и контролировать свое поведение, получали преимущество в эволюционной гонке. Компьютеры вряд ли смогут приблизиться к моделированию реальной эволюции приматов — в этом смысле их эмоции не будут „реальными“», — полагает Мартынов.
Ключевой вопрос, говорит Мартынов: можно ли смоделировать субъективные переживания эмоций, то, что Аристотель назвал бы душой, а Декарт — cogito? Прямого ответа на этот вопрос наука до сих пор не дает, а философы собирают конференции о природе квалиа (нередуцируемых элементов субъективного опыта). Хотя есть и оптимисты вроде философа и когнитивиста Дэниела Деннета, которые утверждают, что в конечном счете субъективный опыт — это способность рассказывать себе и окружающим о том, что вы почувствовали. Убедительные вербальные отчеты об эмоциях мы, конечно, получим от машин в ближайшее время, думает Мартынов.
Но с большой вероятностью, полагает Сергей Марков, наше совместное будущее с эмоциональным искусственным интеллектом примет формы, которые невозможно вообразить сегодня со стереотипным противопоставлением людей и машин: «Скорее в будущем люди и машины будут объединены в гетерогенные синтетические системы, в которых вы уже не сможете провести даже условную черту, разделяющую человека и продукт его технологий. В таком сценарии эмоциональному интеллекту уготована большая роль».
Источник
Будущее искусственного интеллекта
В предыдущей статье мы описали прошлое и настоящее искусственного интеллекта – как выглядит ИИ сегодня, разницу между сильным и слабым ИИ, ОИИ, и некоторые философские идеи по поводу природы сознания. Слабый ИИ можно встретить где угодно в виде ПО, предназначенного для умного выполнения определённых задач. Итоговая цель – сильный ИИ, и именно настоящий сильный ИИ будет напоминать то, что знакомо нам из популярной фантастики.
Обобщённый ИИ – современная цель, которой многие исследователи посвящают сегодня свои карьеры. У ОИИ не обязательно должно быть какое-то сознание, но он должен справиться с любой задачей, связанной с данными, которую мы перед ним поставим. Конечно, в природе людей есть желание предсказывать будущее, и именно этим мы и займёмся в данной статье. Какие наилучшие догадки мы можем сделать по поводу связанных с ИИ ожиданий в ближайшем будущем? Какие этические и практические проблемы могут возникнуть с появлением обладающего сознанием ИИ? В предполагаемом будущем, должен ли ИИ обладать правами, или, например, нужно ли его бояться?
Будущее ИИ
Оптимизм исследователей ИИ по поводу будущего с годами менялся, и даже современные эксперты ведут по этому поводу споры. Тревор Сэндс, исследователь ИИ из Lockheed Martin, осторожен в своих оценках:
С появления ОИИ как концепции, исследователи и оптимисты, утверждают, что его осталось ждать недолго, всего несколько десятков лет. Лично я считаю, что мы увидим появление ОИИ в ближайшие 50 лет, поскольку железо подтянулось до уровня теории, и всё больше организаций видят потенциал в ИИ. ОИИ – естественное завершение существующих попыток исследования ИИ.
За это время может появиться даже разумный ИИ, как говорит Альберт (ещё один исследователь ИИ, попросивший нас упоминать его только по псевдониму):
Надеюсь, что увижу его ещё при жизни. По крайней мере, надеюсь увидеть машины, достаточно умные для того, чтобы люди спорили, обладают ли они сознанием. А что это означает на самом деле – более сложный вопрос. Если разум означает «самосознание», то тогда не так уж сложно представить умную машину, обладающую моделью себя самой.
Сэндс и Альберт считают, что сегодняшние исследования нейросетей и глубинного обучения – это правильный путь, который, скорее всего, приведёт к созданию ОИИ в недалёком будущем. В прошлом исследователи либо фокусировались на амбициозных попытках создания сильного ИИ, либо на ограниченном по сути слабом ИИ. Между ними находится ОИИ, и пока что результат работы нейросетей выглядит плодотворным, и скорее всего, приведёт к ещё большему числу прорывов в ближайшие годы. Большие компании, в частности, Google, явно считают, что так и будет.
Последствия и этические проблемы сильного ИИ
При каждом обсуждении ИИ всегда возникают две проблемы: как он повлияет на человечество, и как нам к нему относиться? Литературу всегда можно рассматривать как хороший индикатор мыслей и чувств, отражающий настроения людей, и в научной фантастике полно примеров этих проблем. Попытается ли достаточно передовой ИИ устранить человечество, как Skynet? Или ИИ необходимо будет давать права и защиту, во избежание таких проявлений жестокости, какие встречаются в «A.I. Artificial Intelligence»?
Страшный ИИ
В обоих случаях смысл состоит в том, что с созданием настоящего ИИ придёт технологическая сингулярность. Технологическая сингулярность – период экспоненциального роста технологий, происходящий на небольшом временном отрезке. Идея в том, что ИИ сможет улучшать самого себя или производить более передовые ИИ. Так как это будет происходить быстро, кардинальные перемены могут случиться за один день, и в результате появится ИИ гораздо более совершенный, чем тот, что был создан человечеством. Это может означать, что в результате у нас появится сверхумный и недоброжелательный ИИ, или разумный ИИ, достойный обладать правами.
Недоброжелательный ИИ
Что, если этот гипотетический сверхумный ИИ решит, что человечество ему не нравится? Или же мы будем ему безразличны? Нужно ли бояться этой возможности и принимать меры предосторожности? Или же эти страхи – результаты безосновательной паранойи?
Сэндс считает: «ОИИ произведёт революцию, и его применение определи, позитивное это будет влияние, или негативное. Примерно так же расщепление атома можно рассматривать как обоюдоострый меч». Конечно, тут речь идёт только об ОИИ, а не о сильном ИИ. Что насчёт возможности появления разумного сильного ИИ?
Скорее всего, потенциала можно ожидать не от злонамеренного, а от индифферентного ИИ. Альберт рассматривает пример с простой задачей, поставленной ИИ: «Есть такая история, что владелец фабрики по производству скрепок задал ИИ вроде бы простую задачу: максимизацию производства. А затем ОИИ воспользовался своим интеллектом и придумал, как превратить всю планету в скрепки!»
Альберт отметает возможность, описанную в этом смешном мысленном эксперименте: «Вы хотите сказать, что этот ОИИ понимает человеческую речь, сверхумный, но ему недоступны связанные с запросом тонкости? Или, что он не сможет задать уточняющие вопросы, или догадаться, что превращение всех людей в скрепки – это плохая идея?».
То есть, если ИИ достаточно умён для того, чтобы понять и запустить опасный для людей сценарий, он должен быть достаточно умным для того, чтобы понять, что этого делать не стоит. Три закона робототехники Азимова тоже могут сыграть свою роль, хотя остаётся вопрос, можно ли будет реализовать их таким образом, чтобы ИИ не смог их поменять? А что насчёт благополучия самого ИИ?
Права ИИ
На противоположной стороне проблемы стоит вопрос, заслуживает ли ИИ защиты и получения прав? Если бы появился разумный ИИ, можно ли позволять человеку просто отключать его? Как к нему относиться? Права животных и сейчас очень спорные, и пока что нет согласия в том, обладают ли животные сознанием или разумом.
По-видимому, те же споры развернутся по поводу существ с ИИ. Будет ли рабством заставлять ИИ работать день и ночь на благо человечества? Должны ли мы платить ему за услуги? Что с этой оплатой будет делать ИИ?
Фильм плохой, идея хорошая
Маловероятно, что у нас в ближайшее время появятся ответы на эти вопросы, в особенности, ответы, устраивающие всех. «Как мы можем гарантировать, что у ИИ, сравнимого с человеком, будут такие же права, как у человека? Учитывая, что эта интеллектуальная система фундаментально отличается от человека, как мы можем определить фундаментальные права ИИ? Кроме того, если считать ИИ искусственной формой жизни, есть ли у нас право отнимать у него эту жизнь (отключать)? До того, как создать ОИИ, необходимо серьёзно продумать вопросы этики», – говорит Сэндс.
В то время, как продолжается исследование ИИ, эти и другие этические вопросы, несомненно, будут вызывать споры. Судя по всему, мы ещё довольно далеко от того момента, когда они окажутся актуальными. Но и сейчас уже для их обсуждения организовываются конференции.
Как поучаствовать
Исследование и эксперименты с ИИ традиционно находились в ведении учёных и исследователей из корпоративных лабораторий. Но в последние годы растущая популярность свободной информации и открытого кода распространилась даже на ИИ. Если вам интересно заняться будущим ИИ, для этого есть несколько способов.
Проводить самостоятельные эксперименты с ИИ можно при помощи доступного ПО. У Google есть встроенная в браузер песочница для работы с простейшими нейросетями. Доступны библиотеки по нейросетям с открытым кодом, например, OpenNN и TensorFlow. Их не так-то просто использовать, но целеустремлённые любители хобби могут развернуться на их базе.
Наилучший способ – делать всё, что можно, для продвижения профессиональных исследований. В США это означает пропаганду научных исследований. Исследования ИИ, как и любые научные исследования, зависят от непредвиденных обстоятельств. Если вы верите, что за технологическими инновациями будущее, то помощь в получении финансирования исследований – это достойное занятие.
С годами оптимизм по поводу разработки ИИ колебался. Сейчас мы находимся на пике, но вполне возможно, что это изменится. Но нельзя отрицать, что возможность ИИ подстёгивает воображение публики. Это очевидно, если судить по научной фантастике и другим развлечениям. Сильный ИИ может появиться через пару лет или через пару столетий. Можно быть уверенным только в том, что мы не остановимся на пути к этой цели.
Источник