Страшная человечность: для чего нам разумный искусственный ум?

    Когда Норберт Винер, отец кибернетики, писал собственную книжку «Человеческое пользование человечьих существ» в 1950 году, вакуумные трубки все гораздо были основными электрическими строй блоками, и в работе, по факту, существовало всего несколько компов. Но он представил будущее, которое мы ныне смотрим, с беспримерной точностью, ошибившись только в малозначительных мелочевках.

    Страшная человечность: для чего нам разумный искусственный ум?

    До этого хоть какого иного философа искусственного ума, он осознал, что ИИ не попросту будет подражать — и подменять — людским созданиям в почти всех образах умственной деятельности, да и видоизменит граждан в этом процессе. «Мы всего только водовороты в реке нетленно текущей воды», писал он. «Мы и не является кое-чем, что ординарно живет, мы фотомодели, кои увековечивают себя».

    К примеру, когда возникает огромное количество заманчивых способностей, мы уже готовы платить и воспринимать маленькие издержки на ведение бизнеса для доступа к новейшим способностям. И максимально вскоре мы становимся зависимы от новеньких инструментов, теряем способность существовать без их. Функции стают неотклонимыми.

    Это же максимально древняя история эволюции, и почти все главы из нее нам ладно знамениты. Большая часть млекопитающих может синтезировать собственный свой витамин C, однако приматы, питающиеся в большей степени фруктами, утратили эту встроенную вероятность. Самоповторяющиеся шаблоны, кои мы называем людьми, сейчас зависят от одежд, возделанной пищи, витаминов, шприцев, кредитных карт, телефонов и веба. И завтра, ежели и не сейчас, — от искусственного ума.

    Винер предугадал несколько неурядиц с сиим положением вещей, кои Алан Тьюринг и альтернативные ранешние оптимисты ИИ в изрядной степени упустили из образу. Настоящая опасньсть, по его словам, заключалась:

    …в фолиант, что этакие машинки, хотя и немощные сами по самому себе, умеют употребляться человеком либо перекрыть человечьих созданий для повышения них контроля над прочий частью расы, или политические фавориты умеют постараться взять под контроль свое население, используя и не сами машинки, а уж политические способы, столье же узенькие и безразличные к человеку, как только если б они были изобретены механически.

    Явно, эти угрозы ныне очень жизненны.

    В Средства массовой информации, к примеру, инновации в цифровом аудио и видео дозволяют нам платить маленькую стоимость (в очах аудиофилов и любителей кино) за отказ от аналоговых форматов, а уж взамен приобретать позарез простейший — очень простейший — метод проигрывания записей практически без ограничений.

    Однако существуют большая укромная стоимость. Министерство истины Оруэлла предстало настоящей возможностью. Способы ИИ по созданию почти неотличимых поддельных «записей» проделывают устаревшими инструменты, кои мы приименяли для расследований крайние 150 лет.

    Нам останется ординарно отрешиться от короткой эры фотографических доказательств и возвратиться в тамошний прежний мир, где память человека и доверие были позолоченным эталоном. Либо же мы можем создать новейшие способы защиты и нападения в битве за истину. Одним из волнующих примеров ближайшего времени предстал факт тамошнего, что убить репутацию намного дешевле, чем эту же репутацию заслужить и защитить. Винер лицезрел это же явление максимально обширно: «В длительной перспективе и не будет различия меж вооружением себя и вооружением врага». Эра инфы предстала а также эрой дезинформации.

    Что мы можем предпринять? Ключ в фолиант же наблюдении Винера об фолиант, что «эти машины» «беспомощны сами по себе». Мы создаем инструменты, а уж и не коллег, и настоящая опасньсть состоит в том, что мы и не лицезреем различия.

    Искусственный ум в собственных сегодняшних проявлениях паразитирует на людском уме. Он очень бесцеремонно завладевает всем, что сделали люди-творцы, и извлекает паттерны — включая наши самые потаенные привычки. Эти машинки пока что и не имеют намерений либо стратегий, и не способны к самокритике и инновациям, они только изучают наши основы заданных, и не имея своих мыслей и намерений.

    Они, как только разговаривает Винер, беспомощны и не в фолиант смысле, что они закованы в цепи либо обездвижены, нет, они вообщем и не являются агентами — у их нет способности «действовать от причин», как только выразился бы Кант.

    В длительной перспективе «сильный ИИ», либо общий искусственный ум, вероятен в принципе, однако нежелателен. Еще больше консервативный ИИ, который вероятен на практике сейчас, и не будет злом. Однако он несет опасность — частично поэтому, что его можно неверно принять за мощный ИИ.

    Как силен искусственный ум сейчас?

    Разрыв меж нынешними системами и научно-фантастическими системами, наводняющими пользующееся популярностью воображение, все гораздо огромнейший, хотя почти все люди, как только любители, эдак и мастера, склонны его недооценивать. Давайте разглядим Watson от IBM, который полностью готов стать достойным почтения в наше время.

    Этот суперкомпьютер предстал результатом позарез масштабного процесса R&D (исследовательских работ и разработки), в каком существовало использовать огромное количество граждан и выработки оформления ума за почти все столетия, и он употребляет в тыщи раз все больше энергии, чем головной мозг человека. Его победа в Jeopardy! существовала подлинным триумфом, который предстал вероятен благодаря формульным ограничениям правил Jeopardy!, однако дабы он мог принять роль, даже эти руководила пришлось пересмотреть. Пришлось малость отрешиться от универсальности и добавить человечности, дабы вышло шоу.

    Watson — неудачная корпорация, невзирая на вводящую в заблуждение рекламу от IBM, которая обещает разговорные навыки ИИ на обем уровне, а уж перевоплощение Watson в правдоподобного многогранного агента существовало бы сродни превращению калькулятора в Watson. Watson возможно оптимальным вычислительным футляром для этакого агента, однако быстрее мозжечком либо миндалиной, а уж и не умом — в наилучшем случае, подсистемой спецназначения, выполняющей участие поддержки, да и близко и не системой для планирования и формулирования намерений зависимо от приобретенного разговорного эксперимента.

    Но и для чего бы нам хотелось сделать мыслящего и творческого агента из Watson? Может быть, блестящая мысль Тьюринга — небезизвестный тест Тьюринга — приманила нас в западню: мы стали одержимы изготовлением хотя бы иллюзии настоящего человека, сидячего перед дисплеем, минуя «зловещую долину».

    Угрозу в фолиант, что с того времени, как только Тьюринг вообразил собственную задачку — которая существовала, сначала, задачей одурачить арбитров — создатели ИИ пробовали осуществить ее с помощью комических гуманоидных кукол, «мультяшных» версий, кои обворожат и разоружат непосвященных. ELIZA Джозефа Вейзенбаума, самый первый чатбот, существовала колоритным примером сотворения этакий иллюзии, и причем позарез примитивным методом, который мог уверить граждан, что они ведут сердечные и искренние беседы с иными людьми.

    Его обеспокоила легкость, с которой люди уже готовы веровать в это же. И ежели мы что-то и сообразили из каждогодних состязаний на прохождение консервативного теста Тьюринга за премию Лебнера, эдак это же то, что даже самые мозговитые люди, кои и не сведущи в компьютерном программировании, не сложно ведутся на эти простые уловки.

    Отношение граждан в области ИИ к этаким алгоритмам разнится от осуждения перед началом поощрения, и консенсус состоит в том, что все эти уловки и не особо глубоки, однако умеют быть полезными. Сдвигом в отношении, который был бы как раз кстати, будет искреннее признание тамошнего, что разукрашенные в кукол дроиды — это же неверная реклама, которую стоит ли осуждать, а уж и не поощрять.

    Как только сего достигнуть? Как мы усвоим, что люди начинают воспринимать решения жизни и погибели, следуя «совету» систем ИИ, внутридомовые операции которых почти непостижимы, мы увидим добрый повод для тамошних, кто призывает граждан доверять этаким системам, начать опираться на нормы морали и закона.

    Системы искусственного ума — максимально массивные инструменты. Так массивные, что даже у профессионалов существуют отменная причина и не доверять своим соображениям, когда существуют «суждения», выставленные этими инструментами. Однако ежели эти юзеры инструментов собираются извлечь выгоду, финансовую либо другую, от популяризации этих инструментов, они обязаны убедиться, что знают, как только предпринять это же со всей толикой ответственности, наибольшим контролем и обоснованием.

    Лицензирование и одобрение воздействий операторов этаких систем — определенно эдак же, как только мы лицензируем фармацевтов, операторов кранов и остальных профессионалов, ошибки и неверные соображения которых умеют иметь томные последствия — может, при поддержке страховых корпораций и иных организаций, обязать авторов систем ИИ идти длинноватым методом, выискивая беспомощности и недочеты собственных товаров, также учить тамошних, кто собирается с ними ишачить.

    Можно вообразить собственного рода противоположный тест Тьюринга, в каком предметом оценки будет арбитр; пока что он и не отыщет беспомощности, нарушение границ, пробелы в системе, лицензии он и не получит. Для получения сертификата этакому арбитре будет нужно нешуточное обучение. Рвение приписывать объекту людскую способность думать, как только мы привычно делаем, встречаясь с разумным агентом, максимально и максимально мощное.

    В реальности, способность противостоять желанию созидать в чем либо очеловеченном человека — странноватая штука. Почти все люди отыскали бы взращивание этакого таланта непонятным, так как даже самые прагматичные юзеры системы временами относятся к собственным инструментам «дружелюбно».

    Независимо от тамошнего, как подробно модельеры искусственного ума будут исключать липовые «человеческие» ноты в собственных изделиях, мы обязаны ждать расцвета ярлычков, обходных путей и дозволенных искажений фактического «понимания» как только систем, эдак и них операторов. Определенно эдак же, как только по телеку рекламируют антибиотики с длинноватым перечнем побочных спецэффектов либо алкоголь, снабжая ролик разнообразем маленького шрифта со всеми, предусмотренными законом, предупреждениями, эдак же и создатели искусственного ума будут соблюдать закон, однако ухищряться в предупреждениях.

    Для чего нам искусственный ум?

    Нам и не надобны искусственные сознательные агенты. Существуют толпа природных сознательных агентов, которых довольно, дабы делать любые задачки, созданные для профессионалов и привилегированных лиц. Нам надобны мозговитые инструменты. Инструменты и не имеют прав не обязаны иметь эмоций, кои можно будет задеть либо которыми можно будет «злоупотребить».

    Одна из обстоятельств и не выполнять искусственных сознательных агентов заключается в том, что хотя они и умеют предстать автономными (и в принципе они умеют быть таковыми же автономными, самоулучшающимися либо самосозидательными, как только хоть какой человек), им же и не стоит ли — без специального разрешения — делить с нашими природными сознательными агентами нашу уязвимость либо нашу смертность.

    Дэниел Деннетт, доктор философии из Вуза Тафтса, в один прекрасный момент поставил перед студентами задачку на семинаре по искусственным агентам и автономии: отдайте лично мне технические параметры бота, который сумеет подписать договор с вами — и не заменителя, которым обладает альтернативный человек, а уж самого по самому себе. Это же и не вопросец осознания обстоятельств либо манипуляций рукояткой на бумаге, а уж быстрее владения и заслуженного владения правовым статусом и нравственной ответственностью. Мизерные детки и не умеют подписывать этаких договоров, равно как только и инвалиды, правовой статус которых обязует им же быть под опекой и накладывает ответственность на опекунов.

    Неполадка ботов, кои могли бы возжелать получить этакий возвышенный статус, в фолиант, что, как только и Супермен, они очень уязвимы, дабы выполнять этакие заявления. Ежели они откажутся, что будет? Каким будет наказание за нарушение обещания? Них закроют в клеточке либо разберут на части? Кутузка для искусственного ума и не составит неудобств, ежели мы лишь первым делом и не загрузим жажду свободы, которая и не сумеет быть проигнорирована либо отключена самим ИИ. Разборка ИИ и не кокнут информацию, которая хранится на его диске и в программном обеспечении.

    Простота цифровой записи и телепередачи заданных — прорыв, который дозволил программному обеспечению и заданных получить, по большому счету, бессмертие — выполняет ботов неуязвимыми. Ежели это же и не кажется банальным, задумайтесь об фолиант, как только поменялась бы нравственность граждан, если б мы могли выполнять «бэкапы» граждан каждую недельку. Прыжок с моста без резинки в воскресенье опосля пятничного бэкапа возможно неосмотрительным решением, потом можно будет взглянуть запись собственной заблаговременной кончины позже.

    Вот поэтому мы создаем и не сознательных — жаждили бы производить — гуманоидных агентов, а уж быстрее совсем новейший тип созданий, некоторых оракулов, без сознания, без ужаса погибели, без отвлечения на возлюбленная и ненависть, без персоны: зеркала истины, кои практически наверняка будут заражены людской ересью.

    Людское пользование человечьих созданий вскоре поменяется — в еще один раз — навечно, однако ежели мы возьмем на себя ответственность за нашу линию движения эволюции, мы сможем избежать нежелательных угроз.

    И не согласны? Поведайте об собственном мировоззрении в нашем чате в Телеграме.