Защита информации

Некоторые проблемы искусственного интеллекта

В качестве вступления хотелось бы сказать, что об актуальности данной темы, об искусственном интеллекте (artificial intelligence), идёт много споров, и здесь закономерно поставить следующий вопрос: «Для чего нам нужен ИИ?».

Создав ИИ, мы теоретически перекладываем на машины то, что пока остаётся прерогативой самого человека, – способность мыслить. Что тогда будет с человечеством? Какую роль будет играть человек? Для чего он станет нужен?

По-видимому, самым приемлемым ответом на эти вопросы является концепция использования Искусственного интеллекта (ИИ) в качестве «усилителя интеллекта» (УИ).

Чтобы наглядно объяснить эту концепцию, далее приводится аналогия с президентом государства – он не обязан досконально знать тонкости нефтяной промышленности для принятия решения о стратегии её развития. Каждый занимается своим делом – химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что, вложив деньги в промышленный шпионаж, страна получит 20 %, а в нефтяную промышленность – 30 % годовых. При такой постановке вопроса любой здравомыслящий человек сможет сделать правильный выбор.

В данном примере президент использует биологический УИ – группу специалистов с их белковыми мозгами. Но уже сейчас используются и неживые УИ, например, мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует усилители силы (УС) – понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием УИ от УС является наличие воли. В то же время интеллектуальная система вполне могла бы иметь свои желания и поступать не так, как нам хотелось бы. Таким образом, перед нами встает еще одна проблема – проблема безопасности.

Стоит ли вообще создавать ИИ, может просто закрыть все работы в этой области? Единственное, что можно сказать по этому поводу – если ИИ возможно создать, то рано или поздно он будет создан. И лучше его создавать под контролем общественности, с тщательной проработкой вопросов безопасности, чем он будет создан каким-нибудь программистом-механиком-самоучкой, использующим достижения современной техники. Ведь сегодня, например, любой грамотный инженер, при наличии определенных денежных ресурсов и материалов, может изготовить атомную бомбу.

Казалось бы, развитие идёт полным ходом: ещё немного – и мы увидим результат. Однако не всё так просто. Для сравнения далее приводятся выдержки из статьи человека, считающего, что разработки ИИ зашли в тупик.

Научные разработки в области искусственного интеллекта (ИИ) зашли в тупик. Хотя, вроде бы, все знают, что компьютеры стали в миллионы раз умнее, чем 50 лет назад, даже самого Каспарова в шахматы обыграли.

И, тем не менее, это так. По моим наблюдениям, создатели всяких штук, обычно причисляемых к ИИ, делятся на две группы. Это добросовестные учёные, работающие над своей частной задачей, добивающиеся в ней успехов и никогда не произносящие слов об ИИ.

В чём же проблема? Неужели создать ИИ сложнее, чем полететь на Луну? Расшифровать геном человека? Нет, проблема совсем не в сложности. Настоящая проблема в том, что не существует цели. Вы представляете себе, что значат эти слова: «создать искусственный интеллект»?

Нет. Никакого общепринятого мнения о том, что такое ИИ, не существует. Зато каждая новая конференция или симпозиум порождает новые и новые «концепции», обладающие общим недостатком. Они нежизнеспособны, пройдёт год, и о них забудут.

Что же должна сделать машина такого, что все вокруг сразу закричат: – «Ура! Вот он, искусственный разум»! Решение каких задач приближает его создание?

Скажу сразу: легко сделать так, чтобы зрители (особенно неискушенные) закричали: – «Это уже почти искусственный разум! Ещё немного, и…»

К сожалению, «ещё немного» тянется уже десятки лет. И кардинально ничего за это время не изменилось.

Тест Тьюринга. Одна из главных задач для искусственного интеллекта была предложена Аланом Тьюрингом в его статье «Может ли машина мыслить?» в 1938 году.

Человек («судья») общается с собеседником, не видя его. Затем он пытается определить, с кем вёл разговор. Если судья принимает, условно говоря, компьютерную программу за человека, значит, она прошла тест Тьюринга и может считаться разумной.

С 1991 года проводятся турниры программ, пытающихся пройти тест Тьюринга. Пока ещё эти программы (боты) крайне малоразумны. Всё, что они делают – это применяют заранее подсказанные человеком правила.

Осмыслить разговор боты даже не пытаются, в основном совершают попытки «обмануть» человека. Создатели закладывают в них ответы на наиболее часто задаваемые вопросы, стараются обойти распространенные ловушки.

Например, внимательно следят, а не задаст ли судья один и тот же вопрос дважды? Человек в такой ситуации сказал бы что-то вроде: «Эй, ты уже спрашивал»! Значит, разработчик добавит боту правило тоже так поступать.

«Ура! Это почти искусственный разум! Ещё немного, и…» Но его тут нет, и при таких методах не будет никогда.

Неужели я писал это к тому, чтобы убедить всех, что ИИ не будет создан никогда? Нет. Я верю в то, что мы увидим его совсем скоро. Только создан он будет не в университетах, и не в лабораториях крупных корпораций.

Его создадут «на коленке», в свободное от работы время. Но лишь тогда, когда мы все хорошо подумаем и поймём: а зачем нам это? Что мы от него хотим? Каков настоящий критерий успеха? Где же задача? Когда перестанем давать шарлатанам водить нас за нос и кружить головы обещаниями. Тогда всё у нас получится.

Как мы видим, автор вновь поднял тему контроля исследований в данной области. Нашей непосредственной задачей является тщательная проработка вопросов безопасности. Никто не может дать гарантию, что в данный момент какой-либо гений уже создал ИИ. Как и любая новейшая технология, без должного контроля это может привести к непредсказуемым последствиям. Предотвратить проще, чем исправить. А данная технология не менее опасна, чем ядерная, ведь, в отличии от неё, теоретически ИИ можно создать и в домашних условиях. А это приведёт к непредсказуемым последствиям.

В.С. Агафонов