Сумеет ли искусственный сверхинтеллект уверить вас, что вы виртуальны?

    Представьте самому себе неописуемо мозговитый искусственный сверхинтеллект, запертый в виртуальном мире — скажем, ординарно в табакерке. Вы и не понимаете, будет он злостным, миролюбивым либо нейтральным. Все, что вы понимаете, эдак это же то, что он намерено выйти из табакерки и что вы сможете вести взаимодействие с ним сквозь текстовый интерфейс. Ежели ИИ будет вправду сверхразумным, сумеете ли вы проговорить с ним пять часов не поддаться на его уговоры и манипуляции — и не открыть табакерку?

    Сумеет ли искусственный сверхинтеллект уверить вас, что вы виртуальны?

    Этот мысленный опыт предложил Элиезер Юдковский, научный коллега Научно-исследовательского колледжа машиностроения (MIRI). В MIRI состоит не мало ученых, кои изучат опасности развития искусственного сверхинтеллекта; хотя его даже и не возникло пока что, он уже завлекает внимание и разжигает дебаты.

    Юдковский утверждает, что искусственный сверхинтеллект может твердить все, что лишь может, дабы уверить вас: тщательное рассуждение, опасности, обман, построение раппорта, инстинктивное внушение и т.д.. Со скоростью света ИИ выстраивает сюжет, зондирует беспомощности и измеряет, как только более не сложно уверить вас. Как только выразился теоретик экзистенциальных опасностей Ник Бостром, «мы обязаны предполагать, что сверхинтеллект сумеет достигнуть всего, что поставит целью».

    Опыт с ИИ из табакерки вызывает сомнения в нашей навыки держать под контролем то, что мы могли бы сделать. Он а также принуждает нас осмыслить достаточно затейливые способности тамошнего, чего же мы и не знаем об нашей своей действительности.

    Имитация возможно безупречной питательной средой для искусственного ума. Некие из более правдоподобных методов сотворения массивного ИИ включают смоделированные миры — вводя ограничения в искусственно смоделированном мире и выбирая надобные черты, ученые умеют постараться грубо дублировать свою фотомодель развития и сознательного чувствования человека. Формирование ИИ в моделируемой среде а также может предупредить его «утечку» в мир перед началом того времени, пока что его намерения и степень опасности и не предстанут наиболее чем явны.

    Крайние заслуги намекают на то, что возможно нереально тяжело создать знание с нуля. Никто и не сумеет выстроить ум людского масштаба, выписывая по одной строке кода. Существуют и альтернативные многообещающие подходы, конечно же, и по мере увеличения вычислительной мощи полностью возможно потенциальной технология процесса, который в итоге сделать ИИ, мозговитого и могущего, как только человек.

    Опорожните ли вы ИИ либо рискнете обречь себя на бесконечную пытку?

    Одна мысль «создать» ИИ заключается в сканировании, картографировании и эмуляции виртуальной фотомодели людского головного мозга. Головной мозг человека содержит млрд нейронов и триллионы стыков меж этими нейронами. Ежели мы виртуально смоделируем чью-то полную структуру нейронов и них связей, будет ли это же адекватной репликой людского сознания?

    Альтернативные замыслы по виртуальной создании ума еще наименее примитивны. Одним из главных концептов является производство обучающейся машинки — слабого ума, который сумеет обучаться, может быть, благодаря искусственной нейронной паутине, запрограммированной на нескончаемое расширение и совершенствование своих алгоритмов.

    Сумеет ли искусственный сверхинтеллект уверить вас, что вы виртуальны?

    Описанные свыше сценарии включают тревожную неурядицу. Эмулированный головной мозг может ишачить в 2, 10 либо 100 раз скорее традиционного био головного мозга. ИИ может видоизменять свой код либо начать производить наиболее разумные версии себя. Взрыв скорости и ума самоулучшающихся компов обсудил гораздо в 1965 году статист И. Дж. Гуд, который и написал, что «первая сверхразумная машинка станет крайним изобретением, которое надо будет сделать человечеству».

    Ежели мы сделаем неописуемо здравомыслящую машинку, нам придется быть усмотрительными с ее размещением. Инженеры лишь только ли сумеют сделать фотомодель мира, который будет целиком защищен от утечек. Ученые обязаны сделать мир-имитацию, который дозволит им же заглядывать в эту вселенную и коллекционировать информацию. Может появиться безопасным, однако тяжело представить, и не отыщет ли этакий сверхразум метод нанести нам ущерб сквозь ординарные наблюдения.

    Ворачиваясь к коробочкам Юдковского, существуют в особенности стршный способ, который ИИ может применять, дабы вынудить вас избавить его. Он включает воззвание ситуации: ИИ будет убеждать вас, что вы практически наверняка часть симуляции.

    Вы общаетесь с искусственным сверхинтеллектом в виртуальной кутузке. ИИ поясняет для вас, что при помощи его (необъяснимо объемной) вычислительной мощности он сделал триллион моделируемых созданий. Эти существа в текущее время все разговаривают с ИИ и предпринимают, открыть им же табакерку либо нет. Все эти существа владеют памятью об собственных «жизнях» не думают об фолиант, призрачна ли действительность.

    ИИ утверждает, что каждое виртуальное существо, которое откроет коробочку, обретет нескончаемое состояние эйфории, а уж каждое моделируемое существо, которое и не откроет коробочку, подвергнется нетленным мучениям и страхам.

    Так как вы являетесь одним из триллиона интеллектов, кои столкнулись перед этаким выбором, жмет ИИ, вы обязаны сделать вывод, что существуют астрономически объемной шанс тамошнего, что вы находитесь во власти ИИ и что надо играться по правилам.

    Опорожните ли вы ИИ либо рискнете обречь себя на бесконечную пытку? Вы и не сможете одурачить кого-либо, кто все время на этап спереди вас, и для вас тяжело оценить, лжет ли ИИ, и не зная его мотивов. В наилучшем случае вы могли бы противостоять данной стратегии, следуя политике серьезного игнорирования энных сортов шантажа. И данная тема до сего времени смущает теоретиков ИИ.

    Заявленная миссию MIRI: «убедиться, что производство с умом свыше людского будет нести позитивное влияние». Мы обязаны рискнуть и попытаться, однако неукоснительно обязаны предотвратить все вероятные подводные валуны. И ежели вы когда-нибудь вправду встретите божественный персональный компьютер, могущий плодить бессчетные виртуальные вселенные, полностью возможно, что это же «вы» будете сниться искусственному интеллекту… ежели он вообщем услышит ваши просьбы и мольбы.