Сумеют ли «три закона робототехники» защитить нас?

    Прошло 50 лет с того времени, как только Айзек Азимов выдумал свои именитые три закона робототехники — комплект правил, которым обязан следовать хоть какой уважающий себя бот. Хотя вначале это же был всего-лишь литературный прием, три закона стали необычным рецептом по избежанию «роботокалипсиса». К счастью, существуют специалисты, кои изучают наверное, продержались ли гарантии Азимова проверку временем. К несчастью, они все рассказывают: нет.

    Сумеют ли «три закона робототехники» защитить нас?

    Для начала напомним эти самые три закона:

    1. Бот и не может причинить ущерб человеку либо собственным бездействием допустить, дабы человеку был причинён ущерб.
    2. Бот обязан повиноваться всем приказам, кои даёт человек, за исключением тамошних случаев, когда эти приказы противоречат Первому Закону.
    3. Бот обязан хлопотать об собственной сохранности в той самой мере, в какой это же и не противоречит Первому и Второму Законам.

    Позже Азимов добавил четвертый, либо нулевой, закон, который предшествовал остальным исходя из убеждений приоритета:

    0. Бот и не может причинить ущерба человеку, ежели лишь он и не обоснует, что в конечном счёте это же полезно для всего населения земли.

    Сумеют ли «три закона робототехники» защитить нас?

    В умопомрачительной вселенной Азимова сиим законам обязаны были следовать многие боты. Это же были не попросту предложения либо руководящие принципы — законы были интегрированы в программное обеспечение. За исключением тамошнего, эти руководила нельзя обойти, переписать либо пересмотреть.

    Как только проявил сам Азимов, несовершенство, лазейки и неясности в этих законах часто приводили к необычному и алогичному поведению ботов. Законы были очень расплывчатыми и часто и не могли обусловить и отличить «людей» от «роботов». За исключением тамошнего, боты могли неосознанно нарушать законы, ежели тотальная информация существовала им же труднодоступна. А также очень хитроумный бот либо искусственный ум был должен присутствовать под давлением, дабы и не перепрограммировать свое ядро.

    На дворе 2014 год, и почти все обычное из нашей жизни фантастам минувшего века могло появиться откровенной фантастикой. Почти все люди посчитали, что законы Азимова обязаны были остаться в качестве литературного приема. Однако сам Азимов в 1981 году пометил, что его законы могли бы ишачить. В статье журнальчика Compute! он указал последующее:

    «Когда кто-то спрашивает меня, что существовало бы, если б три моих закона робототехники на деле использовались для распознавания поведения ботов, ответ готов. Само собой разумеется, при условии, что боты будут довольно гибкими и всепригодными, дабы владеть различным поведением. Я отвечаю: да, три закона — это же один-единственный случай, по которому люди умеют вести взаимодействие с роботами — либо с чем-нибудь гораздо.

    Спустя практически тридцать лет мы приблизились к действительности, в какой у нас будут боты — или, ежели вернее, искусственный ум, который ими руководит — довольно гибкие и всепригодные для различных курсов поведения. Останется только вопросец времени: когда машинка затмит человека во всем, начиная физической силой и заканчивая силой воображения.

    Стращает то, что права на ошибку почти нет. Ежели искусственный сверхинтеллект будет никудышно запрограммирован либо безразличен к людям, это же приведет к катастрофе. Мы обязаны убедиться в сохранности искусственного ума, ежели желаем пережить его появление».

    Ответить на вопросец «могут ли три закона Азимова посодействовать?» взялись два теоретика искусственного ума: Бен Герцель (Aidyia Holdings) и Луи Хельм, замдиректора Колледжа исследовательских работ машинного ума (MIRI), также исполнительный редактор журнальчика Rockstar Research. Опосля разговора с ними предстало безоблачно, что законы Азимова вообщем ничуть и не умеют совладать с возложенной на их задачей, и ежели нам надо сделать безобидный ИИ, придется разрабатывать нечто совсем другое.

    Содержание

    • 1 Азимовское будущее?
    • 2 Неплохое начало?
    • 3 Предубеждение против ботов?
    • 4 Как только сделать безобидный искусственный ум?

    Азимовское будущее?

    Сумеют ли «три закона робототехники» защитить нас?

    Беседа с Герцелем и Хельмом началась с тамошнего, в чем Азимов и не ошибся, предрекая будущее, а уж в чем ошибся.

    «Думаю, что тип ботов, которых предугадал Азимов, станет вероятным в недалеком грядущем, — отвечает Герцель. — Все же, в большинстве собственных измышленных миров, писатель подразумевал, что гуманоидоподобные боты будут верхушкой робототехники и инженерии искусственного ума. Это же навряд ли. Максимально вскоре, опосля заслуги статуса азимовских ботов, станет легкодоступным и производство искусственного сверхинтеллекта и сверхроботов».

    Таким макаром, обычный мир грядущего в рассказах про ботов у Азимова, по воззрению Герцеля, будет похож на тамошний, в каком мы живем сейчас, однако с разумными роботами, прогуливающими по улицам.

    «Вряд ли это же произойдет, а уж ежели и произойдет, то задержится ненадолго».

    Для Хельма боты представляются совсем иными.

    «Основным вопросцем, который, на мой взор, будет важнейшим для населения земли, останется и не моральное регулирование огромного количества наполовину разумных гуманоидов, а уж в итоге развитие передовых форм искусственного ума (в любом теле). Это же развитие сверхинтеллекта — фильтр, сквозь который обязано пройти население земли наконец. Вот поэтому технология тактики сохранности для сего перехода настолько немаловажна. Лично мне видится совсем странноватым то, что боты, дроиды либо «эмуляции» будут существовать десять лет либо едва наиболее перед началом того времени, пока что население земли столкнется с реальной неувязкой разработки машинной этики для сверхинтеллекта».

    Неплохое начало?

    Сумеют ли «три закона робототехники» защитить нас?

    Ежели принять во внимание, что три азимовских закона робототехники были первой искренней попыткой решить максимально суровую неурядицу — проблему неопасного поведения машин с искусственным сверхинтеллектом — стоит ли выискать и те самый моменты, в каких законы умеют быть все гораздо действенными (либо хотя бы вдохновляющими).

    «Честно говоря, я и не нахожу никакого вдохновения в этих трех законах робототехники, — разговаривает Хельм. — Суть машинной этики в фолиант, что они и не удовлетворяют базису машинной этики. Может быть, три закона робототехники обширно знамениты, однако на деле применять них в качестве базы для программирования бесполезно».

    «По неким причинам система добропорядочной этики — эдак именуемая деонтология — предстала ненадежной основой для этики. Существуют ряд философов, кои пробуют поправить трудности деонтологии, однако они по наибольшей части остаются теми самыми же людьми, что отыскивают «разумный замысел» и «божественное вмешательство». Никто и не принимает них всерьез».

    Недочеты трех законов робототехники Азимова сводятся к последующим:

    1. Состязательны по собственной сущности
    2. Основаны на изжившей себя этической теории (деонтологии)
    3. И не ишачят даже в фантастике

    Герцель соглашается:

    «Задачей трех законов существовало нарушить них увлекательным методом; вот посему рассказы с них ролью в особенности занятны. Потому три закона умеют остаться только нравоучительным примером тамошнего, как только выполнять не нужно. Ежели взять них за базу, в их безизбежно найдутся лазейки».

    Герцель полагает, что в действительности эти законы ишачить и не будут, так как определения с них ролью многозначны и остаются предметом толкования — а означает, позарез зависимы от тамошних, кто выполняет переводы.

    Предубеждение против ботов?

    Альтернативный нюанс (и возможный недочет) трех законов в банальном шовинизме —предположение об фолиант, что боты обязаны оставаться, невзирая на них превышающую мощь, в руководстве у человека, человечьих потребностей и ценностей.

    «Общество грядущего у Азимова состоит сплошь из шовинистов: у граждан прав еще все больше, чем у ботов. Три закона робототехники были сделаны, дабы поддерживать конкретно этакий публичный порядок».

    Сумеют ли «три закона робототехники» защитить нас?

    Хельм глядит на эту неурядицу малость по-другому, утверждая, что ежели мы окажемся в этакий ситуации — это же само по себе будет свидетельством тамошнего, что мы зашли очень далековато.

    «Я думаю, существовало бы неразумно проектировать систему искусственного ума либо бота с самосознанием. И в отличие от кинофильмов либо книжек, в каких авторы искусственного ума «случайно» приходят к разумным машинкам, я и не верю, что в действительном жизни это же может случиться. Для сего пригодится очень не мало усилий и познаний. И большая часть разрабов ИИ — этически подкованные люди, потому они будут избегать сотворения тамошнего, что философы именуют «морально весомыми существами». В особенности когда они с легкостью умеют сделать продвинутую машинку, которая и не будет владеть этическими задатками».

    Хельм и не обеспокоен целесообразностью разработки асимметричных законов, регулирующих важность ботов по сопоставлению с людьми, утверждая (и надеясь), что грядущие авторы искусственного ума будут опираться на некие этические ограничения.

    «Я вроде бы думаю, что люди изготовлены из атомов, потому в теории инженер может сделать синтетическую форму жизни либо бота с моральным значением. Я жаждил бы мыслить, что никто сего и не изготовит. Думаю, большая часть граждан тоже. Однако безизбежно покажется некоторый дурачина, жаждущий известности первопроходчика, даже ежели это же неэтично и глупо».

    Три закона робототехники 2.0?

    Беря во внимание явные недостаки трех законов робототехники Азимова, ресурс io9 задался вопросцем: можно ли них поправить либо внести доработки? На деле, почти все писатели-фантасты неоднократно пробовали предпринять это же, внося поправки в течение почти всех лет.

    «Нет, — полагает Хельм. — Нет никаких «патчей» для трех законов».

    Кроме собственной противоречивой природы, законы к тому же состязательны по собственной природе.

    «Я приверженец подходов машинной этики, которая наиболее кооперативна, наиболее поочередна и опирается на нормативы, а уж означает может оправиться от недоразумений либо поправить неверное программирование».

    Герцель эхом вторит утверждениям Хельма.

    «Определение набора этических заповедей в качестве ядра машинной этики будет безвыходным, ежели в базе машинки будет упругий общий искусственный ум. Ежели он будет задуман как только интуитивный, упругий, адаптивный либо этический — в этом контексте этические заповеди будут полезны для системы лишь как только твердый ориентир для внедрения своей этической интуиции. Однако в том случае заповеди и не предстанут основой этической системы, а уж лишь только нюансом. Это же можно разглядеть на примере граждан — этические принципы, кои мы изучаем, ишачят, однако и не в качестве руководящих принципов, они только подталкивают нашу интуицию и этические инстинкты. Мы почти независимы от этических принципов».

    Как только сделать безобидный искусственный ум?

    Беря во внимание неадекватность правового подхода, можно поинтересоваться у Герцеля и Хельма по поводу современных подходов к неполадке «безопасного ИИ».

    «Очень немногие исследователи общего искусственного ума считают, что существуют вероятность сделать систему, которая будет целиком неопасной, — разговаривает Герцель. — Однако это же и не тревожит большая часть, так как в данной жизни вообщем нельзя ничего гарантировать».

    Герцель полагает, что как мы сделаем систему общего искусственного ума либо ее эмбрион, мы сможем провести научные исследования и опыты, кои скажут нам о этике ИИ куда все больше, чем мы знаем.

    «Надеюсь, таким макаром мы сможем сконструировать хорошенькие теории по этике искусственного ума, кои дозволят нам углубиться в данную тему. Однако ныне теоретизировать о этике ИИ достаточно тяжело, так как у нас нет не попросту не плохих теорий, у нас вообщем никаких теорий нет».

    «А людям, кои смотрели очень не мало «терминаторов», процесс сотворения искусственного ума может появиться пугающим, так как они упускают слово «примитивный» в этом контексте. Все же, самые конструктивные конфигурации случались конкретно этаким образом».

    «Когда группа мозговитых пещерных граждан изобрела язык, они и не ожидали разработки крепкой формальной теории языка, которая могла бы посодействовать спрогнозировать грядущие конфигурации, вызванные возникновением языка в обществе».

    До того как полагать разработку очередных «трех законов» технической неувязкой, надо провести толпу исследовательских работ. И в этом Хельм и Герцель сходятся.

    «Мой сотрудник из MIRI Лючок Мюельхаузер подвел итоги наших рассуждений последующим образом. Он произнес, что трудности частенько перебегают из области философии в арифметику, а уж потом в инженерию. Философия часто задается правильными вопросцами, однако самым непрактичным образом. Никто и не может наверное сообщить, существуют ли какой-нибудь прогресс в разрешении вопросца. Ежели мы сможем переформулировать принципиальные философские трудности, связанные с умом, идентификацией и приоритетом в четкие формулы, с которыми сумеет совладать арифметика, тогда-то можно будет выстроить кое-какую фотомодель. В один великолепный денек дойдет и перед началом инженерии».

    Хельм полагает эту неурядицу сложноватой для науки и философии, однако прогресс вероятен.

    «Я скептически отношусь к тамошнему, что философия сумеет решить вопросец, над которым бьется наиболее 3000 лет. Однако мы тоже и не можем взять и начать составлять математические фотомодели вопросцев, которых нет на техническом уровне. Надо гораздо не мало теоретических и даже практических наработок».