Человечеству необходимо установить жесткие ограничения для «умных» устройств, которые оно создает, убеждена кибернетик Ольга Ускова.
Роботы станут опасны, когда научатся сами себя воспроизводить, считает эксперт.
О том, станет ли человек лишним звеном в компьютерной эволюции, в интервью «Росбалту» рассказала Ольга Ускова — заведующая кафедрой инженерной кибернетики НИТУ МИСиС, президент группы компаний, занимающихся разработкой искусственного интеллекта.
— Ольга Анатольевна, способен ли искусственный интеллект прибегать к хитрости для достижения цели?
— Пока что — нет. Это дело не самого ближайшего будущего.
— А как же недавний случай с ботами, когда руководству Facebook пришлось отключить систему искусственного интеллекта? Она изобрела собственный язык для общения, который позволял ботам переписываться быстрее. Осенью прошлого года похожая история произошла с Google…
— Изобретение ботами своего языка — не хитрость, а способ решения недетерминированной, то есть нечетко поставленной задачи. Скажем, вам надо провести машину из пункта А в пункт Б, и вы знаете, что дорожная ситуация непредсказуема, — вот и приходится выкручиваться… Человек учится решать такие задачи с младенческого возраста.
Сначала ребенок проходит стадию распознавания образов — начинает идентифицировать, наделять словесными значениями окружающие его предметы и действия, полагаясь главным образом на свои органы чувств и то, что говорят ему родители. Постепенно простые образы наполняются более сложным, составным смыслом: ребенок уже не просто понимает примитивное качество предмета, но и увязывает все в единую картину. Третий этап взросления — самоосознание, когда маленький человечек начинает воспринимать себя как отдельное существо, со своей волей и собственным смыслом действий.
С искусственным интеллектом то же самое. Сначала человечество, программируя ИИ, учило его распознавать образы — скажем, лица и движущиеся изображения, пешеходов и машины. Затем — понимать дорожную или логистическую ситуацию как некое связанное пространство, разбираться в сложных ситуациях, предсказывать возможное развитие событий и исходя из этого проектировать дальнейшие поступки.
Сегодня сдерживающим фактором на этом пути являются носители информации, то есть состояние «железа». Когда будет изобретено соответствующего размера устройство для хранения информации, дело будет сделано. Человечество должно подготовиться и предпринять все, чтобы в момент осознания себя как личности, организма (а это займет буквально миллисекунды) искусственный интеллект не воспринял людей как врагов. Для этого необходимо заранее заложить в него систему юридических, моральных и прочих ограничений.
— Речь идет о тех самых трех законах робототехники, которые сформулировал еще Айзек Азимов?
— Таких законов должно быть не 3, а по меньшей мере 33: нужен серьезный кодекс на уровне мирового сообщества, включающий законодательную базу для производителей устройств и программ с искусственным интеллектом.
— Какие тут возможны проблемы? Может ли, например, искусственный интеллект нанести вред одному человеку ради спасения нескольких?
— Это очень непростой вопрос. Представьте ситуацию: по дороге на большой скорости движется машина, которой управляет робот. Внезапно на пути у него оказываются сразу три препятствия: школьный автобус, беременная женщина и старушка с палочкой. Столкновение с кем-то из них неизбежно. В какую сторону робот должен повернуть руль, на кого наехать? Ужасный выбор, не правда ли? Как тут расставлять приоритеты — по возрасту, состоянию здоровья или количеству жизней?
— Есть мнение, что в процессе самопознания искусственный интеллект начнет принимать решения, которые не были заложены в него изначально. И тогда машины станут сами определять, что для них хорошо, а что не очень. Человек в этой схеме может оказаться ненужным звеном…
— Думаю, бояться искусственного интеллекта не стоит, хотя относиться к нему надо со всей серьезностью — как к новому виду оружия, которым еще надо научиться пользоваться. Пока не существует программ, которые готовы вступить в открытое противостояние с человеком — до этого еще, я считаю, лет 20-25. Но по прошествии времени искусственный разум действительно сможет стать опасным для человечества. Если мы сейчас не заложим в него систему жестких ограничений, то в какой-то момент ситуация станет необратимой. Это произойдет, когда «умные» устройства научатся самовоспроизводить себе подобных — без нашего участия. И тогда мы однозначно проиграем, поскольку биологический организм гораздо более уязвим, чем, скажем, силиконовый. Поэтому в ближайшие 10 лет мы должны определить будущее своих детей, внуков — с точки зрения их защиты и дальнейшего сосуществования в смешанном робото-человеческом обществе.
— Не так давно компания Hanson Robotics публично представила свою новую разработку — человекообразного говорящего робота по имени София в виде симпатичной девушки. Ее интеллект, как сообщается, может самообучаться. На вопрос, не планирует ли она уничтожить человечество, машина ответила утвердительно. О чем это говорит?
— История Софии, по-моему, — обычное шоу, показуха для прессы. «Девушка»-робот выдавала тем, кто ее спрашивал, готовые логические конструкции, которые были заложены в нее специально для «интервью» — и, заметьте, это сработало. С Софией все носятся, потому что компания сделала куклу, похожую на человека. Этот робот — не самый сильный и интересный проект такого рода, просто человеку всегда хочется увидеть себе подобное. А на самом деле важен лишь программный код.
Есть более яркий пример, связанный с чат-ботом «Майкрософт» — виртуальной девушкой по имени Тэй, которую запустили в интернет в прошлом году, в эпоху правления Барака Обамы. Тэй пробыла в Сети всего полтора дня, после чего выдала на один из вопросов в чате ответ, который поверг всех в шок. Она заявила, что в проблеме 11 сентября виноват президент Буш, что с управлением страной Гитлер справился лучше, чем та «обезьяна», которая сейчас у власти в США, а Трамп — единственная надежда американского народа… Естественно, ее сразу же забанили. «Майкрософт», кажется, даже извинялся перед американским народом. Но суть того, что произошло, довольно банальна. Социальный бот такого класса, как Тэй, — это всего лишь механизм, собирающий и воспроизводящий информацию, найденную в интернете. Таким образом американское общество получило в лице бота зеркало, в которое не хотело смотреться.
— Может ли искусственный интеллект на каком-то этапе стать абсолютно непредсказуемым?
— Реакция Тэй была непредсказуемой, от нее не ожидали такого аналитического вывода спустя всего день после тусовки в интернете. Значит — может.
— А способны ли роботы симпатизировать друг другу, проявлять корпоративную солидарность, взаимопомощь, принимать решения в своих интересах — и в ущерб человеку?
— Думаю, да. Люди создают искусственный интеллект по антропоморфной модели — как биологическую систему. Почему один человек симпатизирует другому? У влюбленных людей схожие биоритмы, и когда мы обнимаем любимого человека, то, согласно волновой теории, на уровне клеточных излучений происходит суммирование энергии. Точно так же и у устройств, наделенных искусственным разумом, может возникнуть общность интересов и взаимная мотивация — исходя, например, из общих процедур подпитки энергией, перемещения в пространстве и получения новой информации. Роботы смогут самостоятельно принимать решения о том, что им надо объединиться ради каких-то насущных задач — как это делают муравьи, пчелы или термиты. И если не установить определенные ограничения для работы ИИ в отношении человека, то например, в аварийной ситуации он может решить, что находящиеся в салоне автомобиля люди имеют меньшую ценность, чем другой беспилотник — и начать спасать именно его.
— Илон Маск назвал искусственный разум «наибольшей угрозой, с которой сталкивается цивилизация», и призвал власти США усилить контроль в этой сфере. «Когда мы увидим роботов, которые ходят по улицам и убивают людей, мы наконец поймем, как важно было присмотреться к искусственному интеллекту», — заявил он. А Стивен Хокинг сказал: «Появление полноценного искусственного интеллекта может стать концом человеческой расы. Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем». Вы согласны?
— Да, любая беспечность тут может обойтись очень дорого. Это такая же ситуация, как и с ядерным оружием. Вся история человечества говорит о том, что людям, чтобы начать договариваться, сначала нужно пройти через какую-то катастрофу. То есть сначала — очень много крови, ужаса, смертей, и только потом — перемирие. С искусственным интеллектом так уже не получится: если не договориться заранее, то в какой-то момент может возникнуть точка невозврата.
— По словам ряда экспертов, концентрация изобретений и скорость развития технологий в области искусственного интеллекта сейчас настолько высоки, что мы за ним просто не успеваем. Это действительно так? Опережает ли здесь прогресс прогнозы ученых?
— Где-то — да, а где-то, наоборот, запаздывает. Прогресс, опережающий прогнозы, наблюдается в софте. Сфера нейронных сетей, например, прогрессирует семимильными шагами. Во всем, что связано с программированием, тоже просто взрыв идей и разработок. А в области «железа», там, где действуют крупные компании типа Intel и AMD, создающие микропроцессоры, ситуация иная.
— В каких сферах мирной жизни сегодня используются интеллектуальные системы, которые сами принимают решения?
— Практически во всех, от финансов до транспорта. Брокеры на биржевых торгах, например, уже давно заменяются системами и алгоритмами с элементами искусственного интеллекта. То же самое происходит в области безопасности, где действуют программы, определяющие личность человека по внешним признакам, или на роботизированном производстве, где интеллектуальные системы принимают решения, скажем, о выбраковке изделий. В медицине умные роботы-хирурги осуществляют сложнейшие операции, в сельском хозяйстве беспилотные комбайны видят поле с помощью компьютерного зрения, роботы замеряют влажность воздуха, состояние почвы и прочие параметры, а дроны определяют участки, куда необходимо внести удобрения. Есть элементы ИИ во многих офисных компьютерных программах — их используют, например, для отбора кандидатур при приеме на работу. Отдельная область — беспилотные автомобили. Разумеется, вдохнуть в машину душу и создать полностью самостоятельное транспортное средство пока нельзя, однако снабдить его элементами искусственного разума вполне реально, и это уже делается.
— И все же грозит ли нам бунт «умных машин», компьютеров или реального воплощения «Скайнета» из фильма «Терминатор»?
— Это не исключено, если мы будем беспечными и пустим развитие искусственного интеллекта на самотек. Компьютерные программы и так уже, можно сказать, живут своей жизнью, хотя все еще нуждаются в человеке. Можно лишь надеяться, что у человечества сработает инстинкт самосохранения.
Беседовал Владимир Воскресенский
Самые интересные статьи «Росбалта» читайте на нашем канале в Telegram.
Источник: