Опасность нарастает?

Я совсем недавно писал на тему ИИ и писать снова не планировал. Но мне кажется, что люди не совсем понимают как сферу применения ИИ со всеми его плюсами, так и его минусы и опасности. На «развитие ИИ» выделяются огромные деньги, компании и страны соревнуются в новой «гонке престижа», но какой в этом смысл и почему стоит притормозить?

В той прошлой статье речь шла о самом понятии интеллекта, как искусственного, так и естественного. О том, как он работает и что из себя представляет.

Появление ИИ фантасты предсказывали еще в середине прошлого века. Собственно говоря, как только появились первые ЭВМ (огромные и примитивные), сразу же стало понятно: рано или поздно интеллект станет искусственным. Ура!

Да, человеческие возможности ограничены. Во-первых, человек устает. Во-вторых, человек связан эмоциями, вкусами, предпочтениями и т.д. В-третьих, человек просто ограничен памятью, быстродействием и т.д. Современные компьютеры «считают» намного быстрее. Мало того! Сейчас идет стремительное наращивание выпуска специальных чипов для ИИ: раньше нейросети делали на обычных процессорах, сейчас уже есть специальные. И под это выделяют огромные деньги!

Я писал в прошлой статье, что ИИ появился много лет назад, еще в старые «досовские» времена. Тогда это называлось «экспертными системами», но и тогда они помогали найти закономерности в море информации. Найти и сделать выводы. Кстати, без всяких «нейросетей».

Но сейчас ИИ не только переводит тексты, не только формирует список главных новостей из моря СМИ, не только ставит диагнозы по рентгеновским снимкам, но и готов выносить приговоры преступникам, а также пишет картины, музыку, стихи…

Военные хотят передать искусственному интеллекту право принимать решение о ядерных ударах. Почему? Потому что человек слишком медлителен, человек нерешителен, человек связан моралью, ну и т.д. А тут надо заметить запуск вражеских ракет и как можно быстрее ответить, ни мгновения не сомневаясь. И да, по идее приговор, вынесенный преступнику «руками ИИ», будет максимально объективен и гарантирован от отсутствия коррупции. Но…

Уже сейчас публиковались случаи, когда ИИ по камерам принимал одного человека за другого и требовал ареста. Человека арестовали. «Это не я, ну посмотрите сами!». Да, вроде не он. Но проблема в том, что опознание официально переложено на ИИ! А значит, люди не могут его оспорить, даже если видят ошибку!

Я не знаю, правдива ли история о том, что в Израиле именно ИИ принимал решение о бомбежках тех мест, где прятались боевики ХАМАС. А этому ИИ плевать, что вокруг пары боевиков находятся сотни мирных жителей, он видит цель — он ее поражает! Писали, что высокие потери среди мирных обусловлены именно тем, что поиск целей доверили ИИ. Понятно, что в Израиле все технологии самые передовые и их применение повсеместно. Но правильно ли это?

Люди издавна осознавали свое несовершенство и свои ограничения. И им всегда хотелось чего-то, что будет идеально! Сколько было в истории судебных ошибок? А тут все делает независимая и неподкупная система. Человек вообще склонен к абсолютизации. Да я по себе знаю: с детства любил универсальные формулы, законы и т.д.! Чтобы никаких «исключений из правила»! Уже сколько лет люди стремятся создать «единую теорию поля», объединив в одно все 4 природные силы? Но кто сказал, что их вообще можно объединить? Да и сколько их на самом деле — тоже вопрос… Но хочется иметь «единый закон природы»!

Так и тут: понимая свою ограниченность, человек хочет иметь абсолютный инструмент. Раньше человек считал, что «есть Божий суд», и даже если тут, на Земле, что-то случится несправедливо, то «Бог разберется». Но когда разберется? В следующей жизни накажет за грехи в этой? Нет, так не пойдет! Надо сейчас! А «сейчас» есть только суд людей — ограниченный, субъективный, а то и продажный. Но появился ИИ — денег не берет, «блат» не понимает, да и анализировать способен такую тучу всего, что человеку не снилось. Вот она — высшая справедливость!

Чисто теоретически это может быть правдой. Но почему «Божий суд» считается идеальным? Потому что Бог знает все! На то он и Бог. А значит, он не может ошибиться даже теоретически. Это понятно. Но ведь ИИ — не Бог! Да, он быстрее и честнее человека, но он не Бог! Он тоже ограничен и по-другому быть не может! Так правильно ли заменять человеческий интеллект искусственным?

Да, я не материалист, я считаю, что Сознание отделено от интеллекта, что мозг не является генератором мыслей. И я не верю в то, что даже сверхмощный интеллект будущего компьютера будет что-либо делать «сам по себе». В том числе, уничтожать человечество. Но! ИИ работает по алгоритмам нечеткой логики, не говоря о том, что заложенные в него человеком алгоритмы столь сложны, что предсказать результат их работы невозможно в принципе. В романе «Космическая одиссея» ИИ уничтожал людей в полном соответствии с вложенными в него алгоритмами и логикой: выполнение задачи превыше всего. А люди мешали. Ну и… Это не «бунт машины», это ошибка в заложенном алгоритме!

Да что ИИ! Почему в обычных программах так много ошибок даже после многолетнего(!) тестирования? Да потому, что невозможно «прогнать» все варианты! Год все работает, а потом хлоп! И ошибка вылезла, потому что ситуация была не смоделирована в тестах. А алгоритмы ИИ на порядки сложнее…

Увы, но как бы ни хотелось людям иметь «божий суд» прямо «здесь и сейчас», ИИ для этого не годится. И не будет годиться никогда! Не говоря о том, что люди, его создающие, несовершенны. А иногда и аморальны. Кто гарантирует, что в алгоритмы ИИ не будет заложена субъективность его создателей? Уже были случаи, когда чаты с ИИ начинали нести нечто непотребное в плане дискриминации или нецензурной лексики. И это еще цветочки…

Да, можно выпускать в эфир «виртуальных ведущих», можно «сажать» в колл-центр некую «Айсель» с приятным голосом. Но все что она смогла, это повторять свои стандартные вопросы, пока я не сказал явно «черт возьми, соедини меня с оператором!». Тогда и проблема была решена. 🙂

Да, вот Азерселл внедрил ИИ. Не знаю, может быть, для чего-то его умения и хватит. Но думаю, что максимум — это повторить звонящему то, что и так написано на сайте компании…

Так что не надо обольщаться и переоценивать. И уж точно не надо давать ИИ возможность судить людей и стрелять по найденным целям…

P.S. Опять же, напоминаю про свой рассказ «Работа роботов». Не сказать, что я сам верю в описанный там сценарий, но задуматься стоит…

Рекомендую подписаться на мой телеграм-канал, чтобы ничего не пропустить.
nick ErichWare

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *