Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Перед вами вторая часть статьи из серии «Подождите, как только это же все возможно действительностью, посему до сего времени о этом и не рассказывают на каждом углу». В предшествующей серии предстало понятно, что к людям планетки Планета земля мал-помалу подкрадывается взрыв ума, он пробует развиться из узконаправленного перед началом общечеловеческого ума и, в конце концов, искусственного сверхинтеллекта.

    «Возможно, пред нами покоится очень непростая неполадка, и непонятно, сколько времени отведено на ее решение, но от ее решения может зависеть будущее человечества». — Ник Бостром.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Первая часть статьи началась достаточно неповинно. Мы обсудили узконаправленный искусственный ум (УИИ, который практикуется на решении одной заядлой задачки вроде распознавания маршрутов либо игры в шахматы), в нашем мире его не мало. Потом проанализировали, посему эдак мудрено вырастить из УИИ общенаправленный искусственный ум (ОИИ, либо ИИ, который по умственным способностям может сравниться с человеком в решении хоть какой задачки). Мы сделали вывод, что экспоненциальные темпы технического прогресса намекают на то, что ОИИ может возникнуть достаточно вскоре. Наконец мы решили, что как машинки достигнут людского уровня ума, может здесь же произойти последующее:

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Как всегда, мы следим на дисплей, и не веря в то, что искусственный сверхинтеллект (ИСИ, который намного умнее хоть какого человека) может возникнуть уже при нашей жизни, и подбирая эмоции, кои идеальнее всего бы отражали наше воззрение благодаря чему вопросцу.

    До того как мы углубимся особенно ИСИ, давайте напомним самому себе, что означает для машинки быть сверхразумной.

    Главное различие покоится меж стремительным сверхинтеллектом и высококачественным сверхинтеллектом. Часто первое, что приходит в голову при мысли об сверхразумном персональном компьютере, это же то, что он может мыслить намного скорее человека — в миллионы раз скорее, и за пять минут поймет то, на что человеку потребовалось бы лет десять. («Я знаю кунг-фу!»)

    Звучит впечатляюще, и ИСИ вправду обязан думать скорее хоть какого из граждан — однако главная отделяющая характеристика будет заключаться в качестве его ума, а уж это же вконец альтернативное. Люди намного умнее обезьян и не поэтому, что скорее понимают, а уж так как мозги граждан содержат ряд хитроумных когнитивных модулей, кои производят сложноватые лингвистические репрезентации, долгосрочное планирование, абстрактное мышление, на что мортышки и не способны. Ежели разогнать головной мозг мортышки в тыщу раз, умнее нас она и не станет — даже сквозь десять лет она и не сумеет собрать архитектор по аннотации, на что человеку пригодилось бы пару часиков максимум. Существуют вещи, которым мортышка ни разу и не научится, вне зависимости от тамошнего, сколько часов издержит либо как только резво будет ишачить ее головной мозг.

    За исключением тамошнего, мортышка и не умеет по-человечески, так как ее головной мозг ординарно и не в состоянии понять существование остальных миров — обезьяна может аристократию, что этакое человек и что этакое небоскреб, однако ни разу и не постигнет, что небоскреб был возведен людьми. В ее мире все принадлежит природе, и макака не совсем только и не может выстроить небоскреб, да и осознать, что его вообщем может кто-нибудь выстроить. И это же итог маленький различия в качестве ума.

    В общей схеме ума, об которой мы говорим, либо ординарно по меркам био созданий, разница в качестве ума человека и мортышки крохотная. В предшествующей статье мы расположили био когнитивные навыки на лесенке:

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Дабы осознать, как нешуточной будет сверхразумная машинка, расположите ее на две ступени свыше, чем человек на данной лестнице. Эта машинка возможно сверхразумной вконец немножко, однако ее приемущество над нашими познавательными возможностями будет этакое же, как только наше — над обезьяньими. И как только шимпанзе ни разу и не поймет, что небоскреб возможно возведен, мы можем ни разу и не осознать тамошнего, что постигнет машинка на пару ступенек свыше, даже ежели машинка попробует растолковать это же нам. А уж ведь это же всего пара ступенек. Машинка поумнее обнаружит в нас муравьев — она будет годами изучать нас простым с ее позиции вещам, и эти пробы будут совсем безвыходными.

    Тип сверхинтеллекта, об котором мы побеседуем сейчас, покоится далековато за пределами данной лестницы. Это же взрыв ума — когда чем умнее становится машинка, тем самым скорее она может повышать свой ум, мал-помалу наращивая обороты. Этакий машинке умеют пригодиться годы, дабы затмить шимпанзе в уме, однако, может быть, пару часиков, дабы затмить нас на пару ступенек. Отныне машинка может уже перепрыгивать сквозь четверо ступени каждую одну секунду. Вот поэтому нам стоит ли осознать, что максимально вскоре опосля тамошнего, как только покажутся первые анонсы об фолиант, что машинка достигнула уровня людского ума, мы можем столкнуться с действительностью сосуществования на Планете земля с кое-чем, что будет еще свыше нас на данной лестнице (а уж может, и в миллионы раз свыше):

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    И раз уж мы установили, что совсем без толку пробовать осознать мощь машинки, которая всего на две ступени свыше нас, давайте определим раз и навечно, что нет никакого метода осознать, что будет выполнять ИСИ и какими будут последствия сего для нас. Хоть какой, кто объявляет об обратном, ординарно и не осознает, что значит сверхинтеллект.

    Эволюция медлительно и мал-помалу развивала био головной мозг в протяжении сотен миллионов лет, и ежели люди создадут машинку со сверхинтеллектом, в неком смысле мы превзойдем эволюцию. Либо же это же будет частью эволюции — возможно, эволюция эдак и орудует, что ум развивается мал-помалу, пока что и не достигнет переломного момента, предвещающего новое будущее для любых живых созданий:

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    По причинам, кои мы обсудим потом, большая часть научного общества полагает, что вопросец и не в фолиант, доберемся ли мы прежде переломного момента, а уж когда.

    Где мы окажемся после чего?

    Думаю, никто в этом мире, ни я, ни вы, и не сумеет сообщить, что случится, когда мы достигнем переломного момента. Оксфордский философ и ведущий теоретик ИИ Ник Бостром полагает, что мы можем свести все вероятные результаты к двум наибольшим категориям.

    Во-первых, смотря на историю, мы знаем об жизни последующее: облики рождаются, есть определенное время, а уж потом безизбежно ниспадают с бревна актуального баланса и вымирают.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    «Все облики вымирают» существовало этаким же надежным правилом в истории, как только и «все люди когда-нибудь умирают». 99,9% сортов рухнули с актуального бревна, и совсем явно, что ежели некий общий вид придерживается на этом бревне очень длительно, порыв природного ветра либо неожиданный астероид перевернет это же бревно. Бостром именует вымирание состоянием аттрактора — места, на котором все облики балансируют, дабы и не свалиться туда, откуда и не возвратился пока что ни один общий вид.

    И хотя большая часть ученых признают, что у ИСИ будет вероятность обречь граждан на вымирание, почти все а также веруют, что пользование способностей ИСИ дозволит отдельным людям (и образу в целом) достигнуть второго состояния аттрактора — видового бессмертия. Бостром полагает, что бессмертие образа этакий же аттрактор, как только и вымирание сортов, другими словами, ежели мы доберемся прежде, мы будем обречены на нетленное существование. Таким макаром, даже ежели все облики перед началом текущего денька ниспадали с данной палки в омут вымирания, Бостром полагает, что у бревна существуют две стороны, и ординарно и не возник на Планете земля этакий ум, который постигнет, как только свалиться на обратную сторону медали.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Ежели Бостром и альтернативные правы, а уж, судя по всей доступной нам инфы, они полностью умеют такими быть, нам надо принять два очень шокирующих факта:

    1. Возникновение ИСИ в первый раз в истории откроет вероятность для образа достигнуть бессмертия и выпасть из фатального цикла вымирания.
    2. Возникновение ИСИ окажет так немыслимо большущее воздействие, что, вероятнее всего, столкнет население земли с сего бревна в одну либо обратную сторону медали.

    Полностью может быть, что когда эволюция добивается этакого переломного момента, она все время ставит точку в взаимоотношениях граждан с потоком жизни и образовывает новейший мир, с людьми либо без.

    Отсюда вытекает один увлекательный вопросец, который лишь лодырь и не задал бы: когда мы доберемся прежде переломного момента и куда он нас обусловит? Никто во всем мире и не знает ответа на этот удвоенной вопросец, однако сильно много мозговитых граждан десятилетиями пробовали это же осознать. Оставшуюся часть статьи мы будем выяснять, к чему они пришли.

    * * *

    Начнем с первой части сего вопросец: когда мы обязаны достигнуть переломного момента? То есть: сколько осталось времени перед началом того времени, пока что первая машинка и не достигнет сверхинтеллекта?

    Воззрения разнятся от варианта к случаю. Почти все, посреди которых доктор Вернор Виндж, ученый Бен Герцель, соучредитель Sun Microsystems Билл Джой, футуролог Рэй Курцвейл, согласились с профессионалом в отрасли машинного обучения Джереми Говардом, когда он вообразил на TED Talk последующий график:

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Эти люди делят воззрение, что ИСИ покажется вскоре — этот экспоненциальный рост, который сейчас кажется нам неспешным, практически взорвется в наиблежайшие несколько десятилетий.

    Альтернативные вроде соучредителя Microsoft Пола Аллена, психолога исследовательских работ Гари Маркуса, компьютерного профессионала Эрнеста Дэвиса и технопредпринимателя Митча Капора полагают, что мыслители вроде Курцвейла всерьез недооценивают масштабы трудности, и задумываются, что мы и не так и близки к переломному моменту.

    Лагерь Курцвейла возражает, что единственная недооценка, которая имеет пространство, — это же игнорирование экспоненциального увеличения, и можно сопоставить неуверенных с теми самыми, кто следил на медлительно цветущий веб в 1985 году и утверждал, что он и не будет иметь воздействия на мир в ближнем грядущем.

    «Сомневающиеся» умеют парировать, дескать, что прогрессу труднее выполнять каждый следующий этап, когда дело доходит перед началом экспоненциального развития ума, что нивелирует типичную экспоненциальную природу технологического прогресса. И т.д..

    Третий лагерь, в каком присутствует Ник Бостром, и не согласен ни с первыми, ни со вторыми, утверждая, что а уж) все это же полностью может произойти в ближнем грядущем; и байтам) нет никаких гарантий в фолиант, что это же произойдет вообщем либо востребует все больше времени.

    Альтернативные же вроде философа Хьюберта Дрейфуса полагают, что все эти три группы наивно считают, что переломный момент вообщем будет, также что, вероятнее всего, мы ни разу и не доберемся перед началом ИСИ.

    Что выходит, когда мы складываем все эти воззрения совместно?

    В 2013 году Бостром провел опрос, в каком опросил сотки профессионалов в сфере искусственного ума в процессе ряда конференций на последующую тематику: «Каков будет ваш прогноз по достижению ОИИ людского уровня?» и попросил именовать оптимистичный год (в который мы будем иметь ОИИ с 10-процентным шансом), близкое к реальности предположение (год, в который у нас с 50-процентной вероятностью будет ОИИ) и уверенное предположение (самый преждевременный год, в который ОИИ покажется с 90-процентной вероятностью). Вот результаты:

    • Посредственный оптимистичный год (10%): 2022
    • Посредственный близкий к реальности год (50%): 2040
    • Посредственный пессимистичный год (90%): 2075

    Среднестатистические опрошенные полагают, что сквозь 25 лет мы быстрее будем иметь ОИИ, чем нет. 90-процентная возможность возникновения ОИИ к 2075 году значит, что ежели вы ныне гораздо достаточно молоды, это же наверное произойдет при вашей жизни.

    Отдельное изучение, проведенное не так давно Джеймсом Барратом (создателем нашумевшей и максимально оптимальной книжки «Наше крайнее изобретение», отрывки из которой я воображал вниманию читателей Hi-News.ru) и Беном Герцелем на каждогодней конференции, посвященной ОИИ, AGI Conference, ординарно продемонстрировало воззрения граждан относительно года, в который мы доберемся перед началом ОИИ: к 2030, 2050, 2100, потом либо ни разу. Вот результаты:

    • К 2030: 42% респондентов
    • К 2050: 25%
    • К 2100: 20%
    • Опосля 2100: 10%
    • Ни разу: 2%

    Похоже на результаты Бострома. В опросе Баррата, наиболее двух третей опрошенных полагают, что ОИИ будет тут к 2050 году, и наименее половины полагают, что ОИИ покажется в наиблежайшие 15 лет. А также оказывается на виду то, что лишь 2% опрошенных в принципе и не лицезреют ОИИ в нашем грядущем.

    Однако ОИИ — это же и не переломный момент, как только ИСИ. Когда, по воззрению профессионалов, у нас будет ИСИ?

    Бостром опросил профессионалов, когда мы достигнем ИСИ: а уж) сквозь два года опосля заслуги ОИИ (другими словами практически одномоментно вследствие взрыва ума); байтам) сквозь 30 лет. Результаты?

    Посредственное воззрение сложилось эдак, что стремительный переход от ОИИ к ИСИ произойдет с 10-процентной вероятностью, однако сквозь 30 лет либо все меньше он произойдет с 75-процентной вероятностью.

    Из этих заданных мы и не знаем, какую дату респонденты окрестили бы 50-процентным шансом возникновения ИСИ, однако на базе двух ответов свыше давайте допустим, что это же 20 лет. Другими словами ведущие мировые специалисты из области ИИ полагают, что переломный момент настанет в 2060 году (ОИИ покажется в 2040 году + пригодится лет 20 на переход от ОИИ к ИСИ).

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Конечно же, все вышеописанные статистики являются спекулятивными и ординарно воображают воззрение профессионалов в сфере искусственного ума, однако они а также указывают, что большая часть заинтересованных граждан сходятся в фолиант, что к 2060 году ИСИ, вероятнее всего, обязан прибыть. Всего сквозь 45 лет.

    Перейдем ко второму вопросцу. Когда мы дойдем перед началом переломного момента, по какую сторону фатального выбора нас обусловит?

    Сверхинтеллект будет владеть мощной силой, и экстренным вопросцем для нас будет последующий:

    Кто либо что будет держать под контролем эту силу и какой же будет его мотивация?

    Ответ на этот вопросец будет зависеть от тамошнего, получит ИСИ неописуемо сильное развитие, неизмеримо ужасающее развитие либо что-то меж этими двумя вариациями.

    Конечно же, общество профессионалов пробует ответить и на эти вопросцы. Опрос Бострома проанализировал возможность потенциальных последствий воздействия ОИИ на население земли, и выяснилось, что с 52-процентным шансом все пройдет максимально ладно и с 31-процентным шансом все пройдет или никудышно, или позарез никудышно. Опрос, прикрепленный в финале предшествующей части данной тематики, проведенный посреди вас, дорогие читатели Hi-News, проявил приблизительно этакие же результаты. Для относительно нейтрального финала возможность составила лишь 17%. То есть, мы все считаем, что возникновение ОИИ станет потрясающим событием. А также необходимо отметить, что этот опрос касается возникновения ОИИ — в случае с ИСИ, процент нейтральности будет ниже.

    До того как мы углубимся гораздо далее в рассуждения об дрянной и оптимальной сторонах вопросца, давайте объединим обе части вопросца — «когда это же произойдет?» и «хорошо это же либо никудышно?» в таблицу, которая обхватывает взоры большинства профессионалов.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Об ключевом лагере мы побеседуем сквозь минутку, однако на первых парах обусловьтесь со собственной позицией. Вероятнее всего, вы находитесь там же, где и я, прежде чем предстал заниматься данной тематикой. Существуют несколько обстоятельств, по которым люди вообщем и не задумываются на данную тему:

    • Как только уже упоминалось в первой части, киноленты всерьез запутали граждан и факты, представляя нереалистичные сценарии с искусственным умом, кои привели к тамошнему, что мы вообщем и не обязаны принимать ИИ серьезно. Джеймс Баррат сравнил эту ситуацию с тем самым, как только если б Центры по контролю болезней опубликовали нешуточное предупреждение об вурдалаках в нашем грядущем.
    • По причине эдак именуемых когнитивных предубеждений нам максимально тяжело поверить в действительность чего-то, пока что у нас нет доказательств. Можно уверенно предположить компьютерщиков 1988 года, кои часто обсуждали далековато идущие последствия возникновения веба и чем он мог предстать, однако люди лишь только ли верили, что он видоизменит них жизнь, пока что сего и не случилось на деле. Ординарно компы и не умели выполнять сего в 1988 году, и люди ординарно смотрели на свои компы и задумывались: «Серьезно? Это же то, что видоизменит мир?». Них воображение существовало ограничено тем самым, чему них обучил субъективный эксперимент, они знали, что этакое персональный компьютер, и существовало мудрено предположить, на что персональный компьютер станет могущим в дальнейшем. То же самое происходит ныне с ИИ. Мы слышали, что он станет нешуточной штукой, однако так как пока что и не столкнулись с ним личиком к личику и в целом смотрим достаточно слабенькие проявления ИИ в нашем современном мире, нам достаточно тяжело поверить, что он кардинально видоизменит нашу жизнь. Конкретно против этих предубеждений выступают бессчетные специалисты из любых лагерей, также заинтригованные люди: пробуют привлечь наше внимание через шум ежедневного коллективного эгоцентризма.
    • Даже если б мы поверили во все это же — сколько раз вы сейчас думали об фолиант факте, что проведете остаток вечности в небытии? Малость, согласитесь. Даже ежели сей факт намного важнее всего, чем вы занимаетесь изо денька в денек. Все поэтому, что наши мозги привычно сосредоточены на маленьких ежедневных вещах, вне зависимости от тамошнего, как бредовой будет длительная ситуация, в какой мы оказались. Ординарно мы эдак устроены.

    Одна из намерений реальной статьи — вывести вас из лагеря под заглавием «Мне нравится мыслить об остальных вещах» и поместить в лагерь профессионалов, даже ежели вы ординарно стоите на распутье меж двумя пунктирными линиями на квадрате свыше, будучи целиком неопределившимися.

    В процессе исследовательских работ становится явно, что воззрения большинства граждан резво уходят в сторону «главного лагеря», а уж три четверти профессионалов проникают в два подлагеря в основном лагере.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Мы целиком посетим оба этих лагеря. Давайте начнем с развеселого.

    Содержание

    • 1 Посему будущее возможно нашей величайшей мечтой?
    • 2 Хронология
    • 3 Несколько слов об нанотехнологиях
      • 3.1 Несколько слов об «серой слизи»
    • 4 Что ИИ мог бы предпринять для нас?

    Посему будущее возможно нашей величайшей мечтой?

    По мере тамошнего, как только мы изучаем мир ИИ, мы обнаруживаем на удивление не мало граждан в зоне удобства. Люди в правом верхнем квадрате гудят от тревоги. Они полагают, что мы упадем по неплохую сторону бревна, также убеждены, что мы безизбежно к этому придем. Для их будущее — это все лишь самое топовое, об чем лишь можно грезить.

    Пункт, который различает этих граждан от остальных мыслителей, состоит и не в фолиант, что они намерены оказаться на счастливой стороне — а в фолиант, что они убеждены, что нас ожидает конкретно она.

    Эта уверенность получается из споров. Критики полагают, что она истекает от ослепительного тревоги, которое затмевает потенциальные нехорошие стороны. Однако сторонники рассказывают, что сумрачные прогнозы все время наивны; технологии продолжают и все время будут помогать нам все больше, чем вредить.

    Вы вправе избрать хоть какое из этих воззрений, однако отложите скепсис и хорошо посмотрите на счастливую сторону бревна баланса, попытавшись принять тамошний факт, что все, об чем вы читаете, может быть, уже вышло. Если б вы продемонстрировали охотникам-собирателям наш мир комфорта, технологий и нескончаемого обилия, им же он показался бы колдовским вымыслом — а уж мы ведем себя довольно робко, и не способен допустить, что такова же непостижимая трансформация ожидает нас в дальнейшем.

    Ник Бостром определяет три пути, по которым может пойти сверхразумная система искусственного ума:

    • Оракул, который может ответить на хоть какой определенно поставленный вопросец, включая сложноватые вопросцы, на кои люди и не умеют ответить — к примеру, «как предпринять авто движок наиболее действенным?». Гугл — простой тип «оракула».
    • Джинн, который выполнит всякую команду высочайшего уровня — использует молекулярный ассемблер, дабы сделать новейшую, наиболее эффективную версию авто мотора — и будет ожидать последующей команды.
    • Суверен, который получит обширный доступ и вероятность вакантно работать во всем мире, принимая собственные решения и улучшая процесс. Он изобретет наиболее недорогой, стремительный и безобидный метод личного миграции, ежели седан.

    Эти вопросцы и задачки, кои кажутся сложноватыми для нас, появятся сверхразумной системе как будто кто-то попросил оптимизировать ситуацию «у меня карандаш свалился со стола», в какой вы ординарно подняли бы его и положили назад.

    Элиэзер Юдковский, южноамериканский профессионал по искусственному ум, ладно подметил:

    «Сложных неурядиц и не бытует, лишь трудности, кои сложноваты для конкретного уровня ума. Перейти на ступень свыше (в замысле ума), и некие трудности неожиданно из разряда «невозможных» перейдут в стан «очевидных». Гораздо на ступень свыше — и они все предстанут очевидными».

    Существуют не мало нетерпеливых ученых, изобретателей и бизнесменов, кои на нашей таблице избрали самому себе зону уверенного удобства, однако для прогулки к топовому в этом наилучшем из миров нам востребован лишь один гид.

    Рэй Курцвейл вызывает двойственные чувства. Некие боготворят его идеи, некие презирают. Некие держатся посередке — Дуглас Хофштадтер, обсуждая идеи книжек Курцвейла, сладкоречиво подметил, что «это как только если б вы взяли не мало оптимальной пищи и малость собачьих экскрементов, а уж потом смешали все эдак, что нереально осознать, что ладно, а уж что плохо».

    Нравятся для вас его идеи либо нет, мимо их нереально пройти без тени энтузиазма. Он начал изобретать вещи гораздо будучи ребенком, а уж в дальнейшие годы изобрел несколько немаловажных вещей, включая первый планшетный сканер, первый сканер, конвертирующий текст в речь, ладно узнаваемый музыкальный синтезатор Курцвейла (первое полноценное электромагнитное пианино), также первый коммерчески удачный распознаватель речи. А также он создатель пяти нашумевших книжек. Курцвейла ценят за его неустрашимые пророчества, и его «послужной список» весьма неплох — в финале 80-х, когда веб был гораздо в зачаточном состоянии, он представил, что к 2000-м годам Паутину станет всемирным феноменом. The Wall Street Journal именовал Курцвейла «беспокойным гением», Forbes — «глобальной думающей машиной», Inc. Magazine — «законным наследником Эдисона», Билл Гейтс — «лучшим из числа тех, кто предсказывает будущее искусственного интеллекта». В 2012 году сооснователь Гугл Ларри Пейдж пригласил Курцвейла на пост технического директора. В 2011 году он предстал соучредителем Singularity University, который приютило NASA и который отчасти спонсирует Гугл.

    Его биография имеет значение. Когда Курцвейл ведает об собственном видении грядущего, это же похоже на абсурд безумного, однако по-настоящему безумное в этом то, что он далековато и не чокнутый — он неописуемо мозговитый, образованный и адекватномыслящий человек. Вы сможете полагать, что он ошибается в прогнозах, однако он и не дурачина. Прогнозы Курцвейла делят почти все специалисты «комфортной зоны», Питер Диамандис и Бен Герцель. Вот что произойдет, по его воззрению.

    Хронология

    Курцвейл полагает, что компы дойдут перед началом уровня общего искусственного ума (ОИИ) к 2029 году, а уж к 2045 у нас не совсем только будет искусственный сверхинтеллект, да и совсем новейший мир — время эдак именуемой сингулярности. Его хронология ИИ до сего времени числится вопиюще гиперболизированной, однако за крайний 15 лет скорое развитие систем узконаправленного искусственного ума (УИИ) принудило почти всех профессионалов перейти на сторону Курцвейла. Его пророчества как и раньше остаются наиболее принципиальными, чем в опросе Бострома (ОИИ к 2040, ИСИ к 2060), однако и не намного.

    По Курцвейлу, к сингулярности 2045 года приводит три одновременных революции в сферах биотехнологий, нанотехнологий и, что наиболее немаловажно, ИИ. Однако до того как мы продолжим — а уж нанотехнологии неотрывно следуют за искусственным умом, — давайте уделим минутку нанотехнологиям.

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Несколько слов об нанотехнологиях

    Нанотехнологиями мы привычно называем технологии, кои имеют дело с манипуляцией материи в границах 1-100 нанометров. Нанометр — это же одна миллиардная погонного метра, либо миллионная часть мм; в границах 1-100 нанометров можно уместить вирусы (100 нм в диаметре), ДНК (10 нм в ширину), молекулы гемоглобина (5 нм), глюкозы (1 нм) и альтернативное. Ежели нанотехнологии когда-нибудь предстанут нам подчиненны, последующим этапом будут манипуляции с отдельными атомами, кои все меньше всего на один порядок (~,1 нм).

    Дабы осознать, где люди сталкиваются с дилеммами, пытаясь заведовать материей в этаких масштабах, давайте перенесемся на наибольший масштаб. Интернациональная галлактическая станция присутствует в 481 километре над Планетой земля. Если б люди были великанами и головой задевали МКС, они могли быть в 250 000 раз все больше, чем ныне. Ежели вы увеличите что-то от 1 перед началом 100 нанометров в 250 000 раз, вы получите 2,5 сантиметра. Нанотехнологии — это же эквивалент человека высотой с орбиту МКС, который пробует заведовать вещами размером с песчинку либо глазное яблоко. Дабы добраться перед началом последующего уровня — руководства отдельными атомами — великану придется подробно позиционировать объекты поперечником в 1/40 мм. Обыденным людям пригодится микроскоп, дабы них рассмотреть.

    В первый раз об нанотехнологиях заговорил Ричард Фейнман в 1959 году. Тогда-то он произнес: «Принципы физики, как я могу судить, и не рассказывают против способности руководства вещами атом за атомом. В принципе, физик мог бы синтезировать хоть какое хим вещество, записанное химиком. Как только? Размещая атомы там, где разговаривает химик, дабы получить вещество». В этом вся простота. Ежели вы понимаете, как только передвигать отдельные молекулы либо атомы, вы сможете почти все.

    Нанотехнологии стали нешуточным научным полем в 1986 году, когда инженер Эрик Дрекслер вообразил них базы в собственной базовой книжке «Машины создания», но сам Дрекслер полагает, что те самый, кто намерено познать все больше об современных идеях в нанотехнологиях, обязаны дочитать его книжку 2013 года «Полное изобилие» (Radical Abundance).

    Несколько слов об «серой слизи»

    Углубляемся в нанотехнологии. А именно, тематика «серой слизи» — одна из и не самых наглядных тем самым в области нанотехнологий, об которой нельзя и не сообщить. В древних версиях теории нанотехнологий был предложен способ наносборки, включающий производство триллионов крохотных нанороботов, кои будут ишачить вместе, создавая что-то. Один из методов сотворения триллионов нанороботов — сделать единого, который сумеет самовоспроизводиться, другими словами из единого — два, из двух — четверо и т.д.. За денек покажется несколько триллионов нанороботов. Такая сила экспоненциального увеличения. Смешно, и не эдак ли?

    Смешно, однако ровно перед началом того времени, пока что и не приведет к апокалипсису. Неполадка в фолиант, что сила экспоненциального увеличения, которая выполняет достаточно сподручным метод скорого сотворения триллиона наноботов, выполняет саморепликацию ужасной штукой в перспективе. Что, ежели система заглючит, и заместо тамошнего, дабы приостановить репликацию на паре триллионов, наноботы продолжат размножаться? Что, ежели весь этот процесс находится в зависимости от углерода? Биомасса Почвы содержит 10^45 атомов углерода. Нанобот обязан состоять из порядка 10^6 атомов углерода, потому 10^39 наноботов сожрут всю жизнь на Планете земля, и это же случится всего за 130 репликаций. Океан наноботов («серая слизь») заполонит планетку. Ученые задумываются, что наноботы сумеют реплицироваться за 100 секунд, а уж это же означает, что элементарная ошибка может погубить всю жизнь на Планете земля всего за 3,5 часа.

    Возможно и ужаснее — если перед началом нанотехнологий дойдут руки террористов и неблагоприятно настроенных профессионалов. Они могли бы сделать несколько триллионов наноботов и запрограммировать них тихо распространиться по миру за пару недель. Потом, по единому нажатию клавиши, всего за 90 минут они съедят вообщем все, без шансов.

    Хотя эта страшилка обширно дискуссировалась в течение почти всех лет, отменная новинка в фолиант, что это же всего только страшилка. Эрик Дрекслер, который внедрил термин «серая слизь», на деньках поведал последующее: «Люди обожают страшилки, и эта заходит в разряд страшилок об зомби. Эта мысль сама по самому себе уже кушает мозги».

    Опосля тамошнего как только мы доберемся перед началом самого низа нанотехнологий, мы сможем применять них для сотворения технических механизмов, одежки, пищи, биопродуктов — клеток крови, бойцов с вирусами и раком, мускульных тканей и т. п. — чего угодно. И во всем мире, который употребляет нанотехнологии, цена материала все больше и не будет привязана к его недостатку либо трудности процесса его приготовления, а уж быстрее к трудности атомной структуры. Во всем мире нанотехнологий алмаз готов стать дешевле ластика.

    Мы пока что и близко и не там. Не вконец известно, недооцениваем мы либо переоцениваем сложность сего пути. Но все идет к тамошнему, что нанотехнологии и не за скалами. Курцвейл подразумевает, что уже к 2020-м годам они у нас будут. Мировые страны знают, что нанотехнологии умеют дать слово потрясающее будущее, и потому инвестируют в их почти все млрд.

    Ординарно представьте, какие способности получит сверхразумный персональный компьютер, ежели доберется перед началом надежного наномасштабного ассемблера. Однако нанотехнологии — это же наша мысль, и мы пытаемся ее оседлать, нам мудрено. Что, ежели для системы ИСИ они будут ординарно шуточкой, и сам ИСИ выдумает технологии, кои будут в разы сильнее всего, что мы вообщем в принципе можем представить? Мы же условились: никто и не может представить, на что будет в силах искусственный сверхинтеллект? Существуют воззрение, что наши мозги неспособны предсказать даже минимума из тамошнего, что будет.

    Что ИИ мог бы предпринять для нас?

    Искусственный ум. Часть вторая: вымирание либо бессмертие?

    Вооружившись сверхинтеллектом и всеми технологиями, кои мог бы сделать сверхинтеллект, ИСИ будет в состоянии, возможно, решить все трудности населения земли. Всемирное потепление? ИСИ на первых парах закончит выбросы углекислого газа, придумав толпу действенных методов добычи энергии, и не связанных с ископаемым топливом. Потом он выдумает действенный инноваторский метод удаления излишка CO2 из атмосферы. Рак и альтернативные болезни? И не неполадка — здравоохранение и медицина поменяются эдак, что нереально предположить. Мировой голод? ИСИ будет применять нанотехнологии для сотворения мяса, схожего натуральному, с нуля, полноценное мясо.

    Нанотехнологии сумеют перевоплотить груду спама в чан свежайшего мяса либо альтернативный пищи (необязательно даже в обычной форме — представьте циклопический яблоковый куб) и распространить всю эту пищу по миру, используя продвинутые системы транспортировки. Конечно же, это же будет замечательно для зверях, которым все больше и не придется дохнуть ради пищи. ИСИ а также в состоянии сделать не мало иного вроде сохранения вымирающих сортов либо даже возврата уже вымерших по сохраненной ДНК. ИСИ может разрешить наши самые сложноватые макроэкономические трудности — наши самые сложноватые экономические дебаты, вопросцы этики и философии, мировой торговли — все это же будет утомительно явно для ИСИ.

    Однако существуют кое-что пикантное, что ИСИ мог бы предпринять для нас. Притягивающее и дразнящее, что изменило бы все: ИСИ может посодействовать нам совладать со смертностью. Мал-помалу постигая способности ИИ, может быть, и вы пересмотрите все свои мнения об погибели.

    У эволюции и не существовало никаких обстоятельств продлевать нашу длительность жизни все больше, чем она существуют ныне. Ежели мы живем довольно длительно, дабы нарожать и воспитать детишек перед началом тамошнего момента, когда они сумеют постоять за себя, эволюции сего довольно. С эволюционной точки зрения, 30+ лет для развития довольно, и нет никаких обстоятельств для мутаций, продлевающих жизнь и снижающих приоритет естественного отбора. Уильям Батлер Йетс именовал наш общий вид «душой, прикрепленной к умирающему животному». И не очень забавно.

    И так как все мы когда-нибудь умираем, мы живем с идеей об фолиант, что гибель неминуема. Мы думаем об старении с течением времени — продолжая двигаться вперед не имея способности приостановить этот процесс. Однако идея об погибели вероломна: оккупированные ею, мы забываем жить. Ричард Фейнман писал:

    «В биологии существуют восхитительная вещь: в данной науке нет ничего, что изрекало бы об целесообразности погибели. Ежели мы желаем сделать нескончаемый движок, мы осознаем, что нашли довольно законов в физике, кои или указывают на невозможность сего, или на то, что законы неверны. Однако в биологии нет ничего, что указывало бы на неизбежность погибели. Это же приводит меня к мысли, что она и не так и неминуема, и останется лишь вопросец времени, до того как биологи найдут причину данной трудности, сего страшного всепригодного болезни, оно будет излечено».

    Дело в фолиант, что старение ничуть и не сопряжено с течением времени. Старение состоит в том, что физические материалы туловища изнашиваются. Части седана тоже деградируют — однако разве это же старение безизбежно? Ежели вы будете чинить седан по мере изнашивания элементов, он будет ишачить нетленно. Тело человека ничем и не различается — просто наиболее сложноватое.

    Курцвейл разговаривает об разумных, присоединенных к Wi-Fi наноботах в кровотоке, кои могли бы делать бессчетные задачки для людского здоровья, включая постоянный ремонт либо подмену изношенных клеток в хоть какой части туловища. Ежели усовершенствовать этот процесс (либо определить кандидатуру, предложенную наиболее мозговитым ИСИ), он не совсем только будет поддерживать тело здоровым, он может направить назад старение. Разница меж телом 60-летнего и 30-летнего заключается в горстке физических моментов, кои можно существовало бы поправить при наличии необходимых технологий. ИСИ мог бы выстроить машинку, в которую человек бы входил 60-летним, а уж получался 30-летним.

    Даже деградирующий головной мозг можно существовало бы обновить. ИСИ наверное знал бы, как только сделать это же, и не затрагивая заданные головного мозга (персона, впечатления и т. дюйма.). 90-летний старик, страдающий от тотальной деградации головного мозга, мог бы пройти переподготовку, обновиться и возвратиться в начало собственной актуальной карьеры. Это же может появиться абсурдным, однако тело — это же горстка атомов, и ИСИ наверное мог бы с легкостью ими манипулировать, хоть какими атомными структурами. Все и не эдак абсурдно.

    Курцвейл а также полагает, что искусственные материалы будут встраиваться в тело все в большей и большей степени по мере движения времени. Для начала органы можно существовало бы поменять сверхпродвинутыми машинными версиями, кои ишачили бы нетленно и ни разу и не подводили. Потом мы могли бы провести комплексный редизайн туловища, поменять красноватые кровяные клеточки безупречными наноботами, кои сдвигались бы без помощи других, устранив целесообразность в сердечко вообщем. Мы а также могли бы оптимизировать наши когнитивные навыки, начать мыслить в млрд скорее и получить доступ ко всей доступной населению земли инфы при помощи облака.

    Способности для постижения новеньких горизонтов могли быть поистине беспредельными. Людям удалось наделить секс новейшим предназначением, они занимаются им же для наслаждения, а уж не совсем только для воспроизводства. Курцвейл полагает, что мы можем сделать то же самое с пищей. Наноботы могли бы доставлять безупречное питание прямо в клеточки туловища, позволяя больным субстанциям проходить сквозь тело насквозь. Теоретик нанотехнологий Роберт Фрейтас уже разработал подмену кровяным клеточкам, кои, будучи имплементированными в человеческое тело, умеют дозволить ему же и не дышать в течение 15 минут — и это же выдумал человек. Представьте, когда власть получит ИСИ.

    Наконец, Курцвейл полагает, что люди достигнут точки, когда предстанут целиком искусственными; времени, когда мы будем глядеть на био материалы и мыслить об фолиант, как простыми были; времени, когда мы будем читать об ранешних шагах истории населения земли, поражаясь тамошнему, как только бактерии, несчастливые случаи, болезни либо ординарно старость могли погубить человека против его воли. В итоге люди одолеют свою биологию и предстанут нетленными — таков путь по счастливую сторону бревна баланса, об котором мы говорим с самого начала. И люди, кои в это же веруют, убеждены а также и в фолиант, что нас ожидает этакое будущее максимально и максимально вскоре.

    Вы наверное и не будете удивлены тамошнему, что идеи Курцвейла вызвали серьезную критику. Его сингулярность в 2045 году и следующая нескончаемая жизнь для граждан получили заглавие «вознесение ботаников» либо «разумное производство граждан с IQ 140». Альтернативные усомнились в оптимистичных временных рамках, осознании туловища и головного мозга человека, напомнили об законе Мура, который пока что никуда и не девается. На каждого профессионала, который верует в идеи Курцвейла, приходится три, кои полагают, что он ошибается.

    Однако самое увлекательное в этом то, что большая часть профессионалов, и не согласных с ним, в целом и не рассказывают, что это же нереально. Заместо тамошнего дабы сообщить «ерунда, этакого ни разу и не случится», они рассказывают что-то вроде «все это же случится, ежели мы доберемся перед началом ИСИ, однако загвоздка как только раз в этом». Бостром, один из общепризнанных профессионалов ИИ, предупреждающих о угрозы ИИ, а также признает:

    «Едва ли остается хоть какая-нибудь неполадка, которую сверхинтеллект и не способен будет разрешить либо хотя бы посодействовать нам решить. Заболевания, нищету, развал среды, мучения любых сортов — все это же сверхинтеллект с помощью нанотехнологий сумеет решить в момент. А также сверхинтеллект может отдать нам неограниченный срок жизни, остановив и обратив назад процессы старения, используя наномедицину либо вероятность загружать нас в туча. Сверхинтеллект а также может сделать способности для нескончаемого повышения умственных и чувственных способностей; он может помочь нам в разработке мира, в каком мы будем жить в радости и осознании, приближаясь к собственным эталонам и часто воплощая свои мечты».

    Это же цитата единого из критиков Курцвейла, но, признающего, что все это же может быть, ежели нам получится сделать безобидный ИСИ. Курцвейл ординарно сформулировал, каким обязан предстать искусственный сверхинтеллект, ежели он вообщем станет вероятным. И ежели он будет хорошим богом.

    Более явная критика приверженцев «зоны комфорта» состоит в том, что они умеют катастрофически ошибаться, оценивая будущее ИСИ. В собственной книжке «Сингулярность» Курцвейл предназначил 20 страничек из 700 возможным угрозам ИСИ. Вопросец и не в фолиант, когда мы доберемся перед началом ИСИ, вопросец в фолиант, какой же будет его мотивация. Курцвейл отвечает на этот вопросец с осторожностью: «ИСИ вытекает из почти всех разрозненных усилий и будет глубоко интегрирован в инфраструктуру нашей нации. По большому счету, он будет тесновато встроен в наш организм и головной мозг. Он будет отражать наши приоритеты, так как будет с нами одним».

    Однако ежели ответ такой, посему настолько не мало мозговитых граждан в этом мире обеспокоены грядущим искусственного ума? Посему Стивен Хокинг разговаривает, что технология ИСИ «может означать финал людской расы»? Билл Гейтс разговаривает, что он «не осознает граждан, кои и не обеспокоены» сиим. Элон Маск боится, что мы «призываем демона». Посему почти все специалисты полагают ИСИ наибольшей опасностью для населения земли?

    О этом мы побеседуем в последующий раз. А уж пока что давайте поделимся на группы.

    По материалам waitbutwhy.com, компиляция Тима Урбана. В статье применены материалы работ Ника Бострома, Джеймса Баррата, Рэя Курцвейла, Джея Нильс-Нильссона, Стивена Пинкера, Вернора Винджа, Моше Варди, Расса Робертса, Стюарта Армстрога и Кая Сотала, Сюзан Шнайдер, Стюарта Рассела и Питера Норвига, Теодора Модиса, Гари Маркуса, Карла Шульмана, Джона Серля, Джарона Ланье, Билла Джоя, Кевина Кели, Пола Аллена, Стивена Хокинга, Курта Андерсена, Митча Капора, Бена Герцел, Артура Кларка, Хьюберта Дрейфуса, Теда Гринвальда, Джереми Говарда.