Чего боится сам разработчик ИИ в своем творении

Как человек, занимающийся исследованиями искусственного интеллекта, я часто сталкиваюсь с мнением о том, что многие люди боятся ИИ и того, во что он может превратиться. На самом деле неудивительно, если смотреть с позиции истории человечества, при этом обращая внимание на то, чем пичкает нас индустрия развлечений, что люди могут бояться кибернетического восстания, которое заставит жить нас на изолированных территориях, а других превратит в «Матрицеподобный» вид человеческих батареек.

И все-таки для меня, глядя на все эти эволюционные компьютерные модели, которые я использую в разработках ИИ, сложно думать о том, что мои безобидные, чистые как слеза младенца создания на экране моего компьютера однажды смогут превратиться в монстров футуристической антиутопии. На самом ли деле меня можно назвать «разрушителем миров», как однажды сожалел и говорил о себе Оппенгеймер после того, как возглавил программу по созданию ядерной бомбы?

Возможно, я бы принял такую славу, а может критики моей работы все-таки правы? Может, мне действительно пора прекратить избегать вопросов о том, какие страхи в отношении искусственного интеллекта имеются у меня самого, как у эксперта в области ИИ?

Страх перед непредсказуемостью

Компьютер HAL 9000, ставший мечтой научного фантаста Артура Чарльза Кларка и воплощенный в жизнь кинорежиссером Стэнли Кубриком в его ленте «Космическая одиссея 2001 года», является отличным примером системы, давшей сбой из-за непредвиденных обстоятельств.

Во многих сложных системах – Титанике, космическом шаттле NASA и Чернобыльской ядерной электростанции – инженерам приходилось объединять между собой множество компонентов. Возможно, архитекторам этих систем было отлично известно, как каждый ее элемент работает по отдельности, но они недостаточно хорошо понимали, как все эти компоненты будут работать вместе.

Результатом стали системы, которые так никогда до конца не были поняты их же создателями, что и привело к известным последствиям. В каждом случае – корабль утонул, два шаттла взорвались, а почти вся Европа и части Азии столкнулись с проблемой радиоактивного загрязнения – набор относительно небольших проблем, но по случайности произошедших одновременно, создали катастрофический эффект.

Я прекрасно могу себе представить, как мы, создатели ИИ, можем прийти к аналогичным результатам. Мы берем последние наработки и исследования в когнивистике (наука о мышлении, — прим. ред), переводим их в компьютерные алгоритмы и добавляем все это в существующие системы. Мы пытаемся разработать ИИ без полного понимания своего собственного интеллекта и сознания.

Такие системы, как Watson от IBM или Alpha от Google, представляют собой искусственные нейронные сети, обладающие впечатляющими вычислительными возможностями и способны справляться с действительно сложными задачами. Но пока единственное, к чему приведет ошибка в их работе, будет результатом проигрыша в интеллектуальной игре «Jeopardy!» или упущенной возможностью победить очередного самого лучшего в мире игрока в настольную логическую игру Го.

Эти последствия не носят мирового характера. На самом деле худшее, что может случиться с людьми в этом случае, так это кто-то проиграет некоторую сумму денег на ставках.

Тем не менее архитектура ИИ становится все сложнее, а компьютерные процессы — все быстрее. Возможности ИИ со временем будут только увеличиваться. А уже это приведет нас к тому, что мы начнем возлагать на ИИ все больше ответственности, даже несмотря на возрастающие риски непредвиденных обстоятельств.

Мы прекрасно осознаем, что «ошибки – это часть человеческой природы», поэтому для нас будет просто физически невозможно создать по-настоящему безопасную во всем систему.

Страх перед неправильным использованием

Меня не очень беспокоит непредсказуемость последствий в работе ИИ, который я разрабатываю, используя для этого подход так называемой нейроэволюции. Я создаю виртуальные среды и заселяю их цифровыми существами, давая их «мозгам» команды по решению задач возрастающей сложности.

Со временем эффективность решения задач этими существами возрастает, эволюционирует. Тех, кто справляется с задачами лучше, всех отбирают для репродукции, создавая на их базе новое поколение. Через многие поколения эти цифровые создания развивают когнитивные способности.

Например, прямо сейчас мы делаем первые шаги в развитии машин до уровня выполнения простых навигационных задач, принятия простых решений или запоминания пары битов информации. Но скоро мы добьемся развития машин, которые смогут выполнять более сложные задачи и будут обладать гораздо более эффективным общим уровнем интеллекта. Нашей финальной целью является создание интеллекта человеческого уровня.

В ходе этой эволюции мы постараемся обнаружить и исправить все ошибки и проблемы. С каждым новым поколением машины будут лучше справляться с ошибками, по сравнению с предыдущими. Это повысит шансы на то, что мы сможем определить все непредсказуемые последствия в симуляциях и исключить их еще до того, как они смогут реализоваться в реальном мире.

Еще одна возможность, которую дает эволюционный метод развития, заключается в наделении искусственного интеллекта этикой. Вполне вероятно, что такие этические и моральные особенности человека, как надежность и альтруизм, являются результатом нашей эволюции и фактором ее продолжения.

Мы можем создать искусственную среду и наделить машины способностями, позволяющими им продемонстрировать доброту, честность и эмпатию. Это может стать одним из способов убедиться в том, что мы разрабатываем более послушных слуг, нежели безжалостных роботов-убийц. Тем не менее, несмотря на то что нейроэволюция может сократить уровень непредвиденных последствий в поведении ИИ, она не может предотвратить неправильное использование искусственного интеллекта.

Как ученый, я должен следовать своим обязательствам перед правдой и сообщать о том, что обнаружил в рамках своих экспериментов независимо о того, нравятся мне их результаты или нет. Моя задача заключается не в том, чтобы определять, что мне нравится, а что нет. Важно только то, что я могу обнародовать свою работу.

Страх перед неправильными социальными приоритетами

Быть ученым – не значит утратить человечность. Я должен на каком-то уровне вновь обретать связь со своими надеждами и страхами. Являясь морально и политически мотивированной личностью, я должен учитывать потенциальные последствия своей работы и ее возможный эффект на общество.

Как ученые и как представители общества, мы до сих пор не пришли к четкой идее о том, чего именно хотим получить от ИИ и чем он должен стать в итоге. Частично это, конечно, связано с тем, что мы до сих пор до конца не понимаем его потенциал. Но все же нам необходимо четко осознать и решить, что мы хотим получить от действительно продвинутого искусственного интеллекта.

Одна из самых больших сфер, на которую люди обращают внимание в разговоре об ИИ, – это трудоустройство. Роботы уже выполняют за нас сложную физическую работу, например, собирая и сваривая между собой части автомобильных кузовов. Но однажды настанет день, когда роботам поручат выполнение когнитивных задач, то есть им поручат то, что раньше считалось исключительно уникальной способностью самого человека. Самоуправляемые автомобили смогут заменить шоферов такси; самоуправляемые самолеты не будут нуждаться в пилотах.

Вместо того чтобы получать медицинскую помощь в пунктах неотложной помощи, заполненной всегда уставшим персоналом и докторами, пациенты смогут проводить обследования и узнавать диагнозы с помощью экспертных систем с моментальным доступом ко всем медицинским знаниям. Хирургические операции будут проводиться неподверженными к усталости роботами, с идеально «наметанной рукой».

Юридические консультации можно будет получить из всеобъемлющей правовой базы. За советами по инвестициям будем обращаться к экспертным системам рыночного прогнозирования. Возможно, однажды вся человеческая работа будет выполняться машинами. Даже мою работу можно будет делать быстрее благодаря использованию большого числа машин, неустанно исследующих, как сделать машины еще умнее.

В реалиях нашего нынешнего общества автоматизация уже заставляет людей покидать свои рабочие места, делая богатых владельцев таких автоматизированных машин еще богаче, а остальных – еще беднее. Но это не научная проблема. Это политическая и социоэкономическая проблема, которую должно решать само общество.

Мои исследования этого не изменят, однако мои политические устои, вместе с человечностью, возможно, приведут к обстоятельствам, при которых ИИ сможет превратиться в исключительно полезную функцию, вместо того чтобы сделать разрыв между одним процентом мировой элиты и остальными нами еще шире.

Страх перед катастрофическим сценарием

Мы подобрались к последнему страху, навязанному нам безумным HAL 9000, Терминатором и любым другим злодейским сверхинтеллектом. Если ИИ продолжит развиваться до тех пор, пока не превзойдет человеческий интеллект, станет ли искусственная сверхинтеллектуальная система (или набор таких систем) рассматривать человека в качестве бесполезного материала? Как мы сможем оправдать свое существование перед лицом сверхинтеллекта, способного делать и творить то, что не будет способен ни один человек? Сможем ли мы избежать участи быть стертыми с лица Земли машинами, которых мы же и помогли создать?

Поэтому самый важный вопрос в таких обстоятельствах будет звучать так: зачем мы будем нужны искусственному сверхинтеллекту?

Случись такая ситуация, я бы, наверно, сказал, что я хороший человек, который даже внес вклад в создание этого сверхинтеллекта, перед которым сейчас нахожусь. Я бы воззвал к его состраданию и сопереживанию, чтобы сверхинтеллект оставил меня, такого сострадающего и сопереживающего, в живых. Я бы также добавил, что само по себе многообразие видов обладает ценностью и Вселенная настолько велика, что существование человеческого вида в ней на самом деле весьма незначительно.

Но я не могу говорить за все человечество, поэтому за нас всех мне будет сложно найти веский аргумент. Просто, когда я смотрю на нас всех, я действительно вижу, что мы много чего сделали и делаем неправильно. В мире царит ненависть друг к другу. Мы идем войной друг на друга. Мы несправедливо распределяем еду, знания и медицинскую помощь. Мы загрязняем планету. В этом мире, конечно, есть множество хороших вещей, но, если взглянуть на все те плохие вещи, что мы сотворили и продолжаем творить, будет очень сложно подобрать аргумент в поддержку нашего дальнейшего существования.

К счастью, нам пока не придется оправдывать свое существование. У нас еще есть время. От 50 до 250 лет, в зависимости от того, насколько быстро будет развиваться искусственный интеллект. Мы, как вид, обладаем возможностью собраться всем вместе и найти хороший ответ на вопрос, почему сверхинтеллект не должен будет стереть нас с лица планеты.

Будет очень сложно решить этот вопрос. Ведь говорить, что мы поддерживаем многообразие и этнокультурные различия, и делать это – это совершенно разные вещи. Как и говорить о том, что мы хотим спасти планету, и успешно с этим справляться.

Все мы, будь то каждая отдельная личность или общество в целом, должны подготовиться к катастрофическому сценарию, используя то время, чтобы быть готовыми показать и доказать, почему наши творения должны позволить нам продолжить существовать. Либо же мы можем просто продолжать слепо верить, что такое развитие событий невозможно, и просто прекратить вести разговоры на эту тему.

Однако независимо от того, какую физическую опасность может представлять для нас сверхинтеллект, не следует забывать, что представлять опасность он будет еще и политическую, а также экономическую. Если мы не найдем способа повысить наш уровень жизни, то в конечном итоге просто подпитаем капитализм чернорабочим искусственным интеллектом, который будет служить лишь горстке избранных, обладающих всеми средствами производства.

Оригинал данной статьи был опубликован на сайте theconversation.com Арендом Хинтзе (Arend Hintze), доцентом кафедры интегративной биологии, компьютерных наук и инженерии Университета штата Мичиган

Source: Новости

Чего боится сам разработчик ИИ в своем творении