Может ли один человек убить мир?

    Орудие апокалипсиса ныне — преимущество глобальных держав. Однако это же может поменяться. В течение пары десятилетий маленькие группы либо даже отдельные люди сумеют получить в свои руки убийственные технологии в любом количестве. Вроде бы это же страшно ни звучало, мир возможно уничтожен маленький группой либо личиком, работающим в одиночку. И ах так.

    Может ли один человек убить мир?

    Дабы познать все больше о данной темной способности, ресурс io9 обратился за консультацией к двум профессионалам, кои развивают эти вариации. Филипп ван Недервельде, офицер в припасе подразделения ACOS Strat бельгийской армии, учился ядерно-биолого-химической защите. Он футуролог и эксперт по вопросцам сохранности со специализацией на всемирных рисках, в вопросцах ликвидирования, наблюдения и конфиденциальности и посреди остального участвует в P2P Foundation. Джеймс Баррат — автор книжки «Наши крайние изобретения: искусственный ум и финал людской эпохи», которая разглядывает опасности, связанные с возникновением сверхмощного машинного ума.

    Как только ван Недервельде, эдак и Баррат, оба обеспокоены тем самым, что мы и не принимаем эту вероятность довольно всерьез.

    «Подавляющее большая часть граждан сейчас пребывает в счастливом незнании об фолиант, что мы на деле находимся в настоящей опасности», — разговаривает ван Недервельде. — «В то время как только немаловажно оставаться на расстоянии от раздутых слухов и лишнего паникерства, нагие факты рассказывают об фолиант, что мы очевидно и конкретно находимся в летальной угрозы. Что возможно ужаснее, ежели наступит время безупречной бури, которая возникнет на почве усиливающихся рисков существования человека?».

    Ежели мы желаем выжить в наиблежайшие несколько тысячелетий, рассказывают они, нам надо в наиблежайшие несколько десятилетий обеспечить наивысшую сохранность, какую мы лишь можем самому себе дозволить.

    Содержание

    • 1 Выбор орудия
    • 2 Ликвидирование заглавного наименьшими силами
    • 3 Одиночки массового поражения
    • 4 Самозащита
    • 5 Полная слежка

    Выбор орудия

    Может ли один человек убить мир?

    Будучи общим видом, живущим в безразличной вселенной, мы сталкиваемся как только с галлактическими, эдак и антропогенными рисками, другими словами можем погибнуть от собственной руки. Как только, фактически, и положено нации нашего типа, проживающей на пороховой бочке в образе ядерного орудия.

    Согласно ван Недервельде, более суровые антропогенные опасности включают пандемию биоатаки, мировой размен термоядерными бомбами, возникновение недружелюбного искусственного сверхинтеллекта и призрак орудия массового поражения на основе нанотехнологий.

    «Угроза био атаки либо злокачественной техногенной пандемии может возникнуть в относительно короткосрочной перспективе», — разговаривает он.

    По правде, сравнимо не так давно, в частности в 20 веке, прецедент проявил нам, как нешуточной может быть «просто» природная эпидемия: в 1918 году испанский грипп сгубил от 50 перед началом 100 миллионов человек. В то время это же существовало 2,5-5 процентов от всего населения земного шара.

    «Человечество разработало технологии, нужные для разработки действенных и эффективных патогенов», — рассказал роднику ван Недервельде. — «Мы располагаем ноу-хау, нужным для поисковой оптимизации и улучшения потенциала вредных патогенов. Этакое орудие может удачно загубить почти все человечество».

    Что касается предсказуемых грядущих форм орудия на основе нанотехнологий, теоретик наномедицины Роберт Фрейтас приводит различие меж «серой пылью», «серым планктоном», «серым лишаем» и эдак именуемыми убийцами биомассы. Это же варианты опасности светло-серой слизи — адского сценария, в каком самовоспроизводящиеся молекулярные боты целиком съедают ресурсы Почвы, критичные для выживания человека, вроде атмосферы.

    Темно-серая пыль могла бы целиком перекрыть солнечный свет. Сероватый планктон мог быть выращен на морском деньке с целью пожрать зажиточную углеродом экологию. Сероватые лишайники умеют убить наземную геологию, а уж убийцы биомассы умеют штурмовать разнообразные организмы.

    И в конце концов, как только помечает Баррат, существуют опасньсть искусственного сверхинтеллекта. В течение пары десятков лет ИИ может затмить человечий на несколько порядков. И опосля возникновения он может биться за выживание, как только мы, или быть никудышно запрограммированным. Мы будем обязаны соперничать с конкурентом, который превосходит наши способности в масштабах, кои мы навряд ли сможем предположить.

    Ликвидирование заглавного наименьшими силами

    Малометражный кинофильм на тематику приемущества искусственного ума, обеспечивший работу в Голливуде своему автору.

    Явно, почти все из этих технологий, ежели и не все, будут разработаны с учетом больших вложений и ресурсов национальных учреждений и огромнейших компаний. Однако это же и не значит, что чертежи схожих вещей и не попадут в конечном итоги в руки неблагоприятно настроенных групп, либо что они сами и не сумеют выдумать схожее.

    Пентагон в курсе сего. Гораздо в 1995 году адмирал Дэвид Е. Иеремия из Южноамериканского объединенного комитета начальников штаба произнес последующее:

    «Где-то в глубине души я все гораздо храню портреты пяти мозговитых ребят из Сомали либо альтернативный неразвитой государства, кои лицезреют вероятность сконфигурировать мир. Дабы перевернуть мир с ног на голову. Военное применение молекулярного изготовления владеет наибольшим потенциалом, чем ядерное орудие, и может конструктивно сконфигурировать баланс сил».

    И как только заявлял Совет государственной сохранности США, «мы под опасностью и не столько флотов и армий, сколько перед чертовскими технологиями в руках озлобленных меньшинств».

    В этом контексте ван Недервельде поведал о «асимметричной разрушительной мощи» (Asymmetric Destructive Capability, ADC).

    «Это значит, что с развитием технологий требуется меньше и все меньше, дабы убить больше и больше», — поведал он. — «Масштабные разрушения стают все наиболее возможными при условии неизмеримо минимальных ресурсов. Эта асимметрия возрастает экспоненциально, благодаря NBIC».

    NBIC, как только пояснил ван Недервельде, это же конвергентные последствия четверых важных технологических секторов, в частности: нанотехнологий (манипуляций с материей на молекулярном уровне, включая возникновение конструктивно новеньких материалов, фармацевтических препаратов и робототехники), биотехнологий, информационных технологий и когнитивной науки.

    По оценке профессионалов в создании нанороботов, ресурсы, нужные для разработки и развертывания нанооружия массового поражения, умеют быть доступны уже к 2040 году, плюс-минус 10 лет.

    «Чтобы распродать это же, маленький конкретной группе, ищущей массовых разрушений, надобны будут последующие относительно умеренные ресурсы: рабочее нанопроизводственное оборудование, могущее сделать семечки «реплиботов»; четверо средних наноинженера со степенью кандидатов наук; четверо рабочих суперкомпьютера; четверо, а уж может быть все меньше, месяца на разработку; четверо точки рассеивания, учитывающие глобальные ветра».

    Ученый определяет это же как только «ADC на стероидах»:

    «По сопоставлению с технологическим заправдашним, будущее нанотехнологичное орудие массового поражения заткнет за пояс ядерное, как только незначимую мелочь».

    Одиночки массового поражения

    Может ли один человек убить мир?

    Ван Недервельде а также предотвратил об SIMAD, «массово разрушительных одиночках» (Single Individual MAssively Destructive).

    «Если вы думаете, что ADC это же логический финал наших умозаключений, у нас все меньше опасений касательно маленьких террористических организаций вроде Аль-Каиды и типа тамошнего, ежели о мозговитых людях, кои хранят глубоко укоренившуюся насильную обиду на людское сообщество либо человечий вид», — разговаривает он.

    Хороший пример — Унабомбер. Сейчас представьте самому себе этакого «унабомбера», вооруженного «наукой на стероидах», улучшенной NBIC-технологиями. Этакий человек будет владеть потенциалом сеять разрушения и гибель в больших масштабах: городка, региона, материка, а уж может быть и целой планетки.

    «SIMAD — один из рисков, который беспокоит меня все больше всего», — разговаривает ван Недервельде. — «Я и не могу кемарить по причине этого».

    Ресурс спросил Баррата, может ли человек в одиночку сделать массово разрушительный искусственный ум.

    «Я и не думаю, что один человек может на деле сделать ИИ мощным довольно, дабы предстать катастрофическим», — ответил он. — «Программное обеспечение и аппаратные трудности в разработке общего искусственного ума (AGI, ОИИ), а уж дальше и работоспособного искусственного сверхинтеллекта (ASI, ИСИ), по масштабам и трудности приближаются к Манхэттенскому проекту по созданию атомной бомбы (на который существовало потрачено в общей трудности 26 млрд баксов), чем к прозрениям «одиноких гениев» вроде Теслы, Эдисона и Эйнштейна».

    Баррат а также колеблется, что маленькая команда сумеет это же распродать.

    «У соперников в данной гонке глубочайшие кармашки — IBM, Гугл, Blue Brain Project, Darpa, NSA. Я сомневаюсь, что маленькая группа сумеет предпринять ОИИ, и уж определенно и не в рядах первых».

    Причина, разговаривает Баррат, состоит в том, что все соперники — заглавные, минимальные, невидимые и испуганные — питаются познанием тамошнего, что массовый ОИИ — или человечий ум по стоимости компа — будет самой выгодной и революционной технологией в мировой истории. Представьте банки тыщ «мозгов» уровня кандидата наук, кои предпринимают трудности рака, моделируют климат и разрабатывают орудие.

    «В случае ОИИ общий денежный вклад получит право ответа за опасность существованию», — разговаривает Баррат.

    Баррат разговаривает, что в данной гонке, в особенности для инвесторов, более притягательными являются масштабы достижений, кои будут открыты, и главный энтузиазм к этому питают корпоративные великаны.

    «Небольших групп с маленький историей и не так много», — разговаривает он. — «В команде IBM, действующей над Watson, всего 15 главных пенисов, однако у их а также существовала поддержка девяти институтов и самой IBM. Плюс зарождающаяся когнитивная вычислительная архитектура IBM убедительна. Маленькие группы владеют потенциалом увеличения, однако у их не достаточно рычажков. Я думаю, IBM победят тест Тьюринга к 2020 году, возможно с персональным компьютером под заглавием Тьюринг, да».

    К огорчению, это же и не исключает вероятность тамошнего, что в конечном счете зловредная террористическая группа сумеет получить в свои руки некие части неповторимого кода, добавить нужные опции и опосля развязать свою цифровую инфраструктуру во всем мире. Пусть она и не будет апокалиптической по собственному масштабу, однако она все гораздо возможно потенциально разрушительной.

    Существуют а также вероятность тамошнего, что хитрецкая команда либо человек с помощью простого искусственного ума сумеет создать массивный машинный ум. С помощью ИИ, кои будут выполнять львиную долю работы, это же полностью может быть. Либо же умеют быть и альтернативные каналы, пока что нам и не узнаваемые. Полностью возможно, что маленькая команда сумеет развязать руки ОИИ, однако за долгое-долгое время.

    Самозащита

    Может ли один человек убить мир?

    Дабы вконец и не загрустить, стоит ли а также побеседовать и об профилактических мерах. Один из методов, которым мы могли бы оградить себя от этих опасностей, является перевоплощение всего сообщества в тоталитарное полицейское правительство. Однако лишь только ли кто захотит. Потому io9 обратился к ван Недервельде и Баррату, дабы познать, что гораздо можно предпринять.

    «Хорошие анонсы в фолиант, что мы и не целиком беззащитны перед этими угрозами», — разговаривает ван Недервельде. — «Меры предосторожности, профилактика, преждевременное предупреждение и действенные оборонительные контрмеры полностью вероятны. Большая часть из их даже и не «драконовские», однако умеют обеспечить константную бдительность».

    Исследователь предугадает психологическое наблюдение за людьми, кои показывают устойчивое и изрядно девиантное поведение в образовательных системах и остальных учреждениях.

    «Это что-то вроде психической иммунной системы на уровне всего населения земли: регулярное наблюдение за SIMAD-унабомберами поможет найти них, когда они гораздо молоды, за длительное время перед началом тамошнего, как только они начнут приводить в порядок свои чудовищные замыслы. Дабы положить этому финал, нужно изрядно оптимизировать наблюдение за поведением граждан и здоровьем граждан в целом».

    Он а также полагает, что мировое государство возможно улучшено таким макаром, что «организации вроде ООН и остальных межнациональных организаций будет отлично реагировать подходящим образом каждый раз, когда опасньсть существованию поднимает собственную уродливую голову».

    А также исследователь полагает, что мы можем предугадать атаки ADC либо SIMAD, дабы противостоять им же по мере них появления. Дабы оградить себя от боевых нанотехнологий, мы могли бы развернуть критическую оборону типа искусственного тумана, солнечных отражателей, ЭМИ-вспышек и целенаправленного излучения.

    Что касается защиты нас от крытых ИИ, Баррат полагает, что маленькие организации наименее размеренны и нуждаются в надзоре все больше, чем большие.

    «Но снова же, ныне NSA с ее 50 млрд темного бюджета воображает для Америки куда огромную опасность, чем Аль-Каида и любые альтернативные желающие обзавестись ОИИ. Мы подсознательно знаем, что они будут более своенравными с ОИИ, ежели доберутся перед началом него первыми».

    Баррат дает два случая, кои умеют закрыть пробелы в сохранности:

    «Создание всемирного публично-приватного партнерства может взнуздать стадо с амбициями сотворения ОИИ, чего-то вроде Интернационального агентства по атомной энергетике (МАГАТЭ). Пока что организация будет производить, надо сформировать консорциум с глубокими кармашками, который будет нанимать ведущих глобальных исследователей сферы общего искусственного ума. Уверить них в угрозы неограниченного развития ОИИ и посодействовать им же перейти на нашу сторону с предельной осторожностью. Либо возместить них отказ от мечты сотворения ОИИ».

    Полная слежка

    Может ли один человек убить мир?

    Наиболее конкретный ван Недервельде предложил идею «четырех E»: Everyone has Eyes and Ears Everywhere («у каждого существуют очи и уши везде»), которая готов стать действительностью с иным акронимом: Panoptic Smart Dust Sousveillance (PSDS, «прозрачное наблюдение мозговитой пыли»).

    «Сегодня «умная пыль» отсылает нас к крохотным MEMS-устройствам под заглавием «пылинки», измеряемым одним кубическим миллиметром либо все меньше и могущим к автономному зондированию, вычислению и коммуникации в беспроводной одноранговой ячеистой сети», — объяснил он. — «В и не самом далеком грядущем мозговитая пыль готов стать в буквальном смысле пылью размером в 50 кубических микрон либо все меньше, сумеет парить в воздухе, как только традиционная пыль, и производить мобильные мозговитые облака с солнечным питанием».

    Исследователь воображает, как только в нижней части атмосферы Почвы рождаются мозговитые пылинки со посредственной герметичностью три пылинки на кубический погонный метр воздуха. Отлично развернутая, такова пыль сумеет отдать каждому из людей свои очи и уши, предоставляя «обратную подотчетность» во всех отношениях цивилизованном сообществе.

    «Если представить, что большинство наблюдений выполняется и не людьми, а уж машинками, заточенными под конкретные фотомодели, это же определенно станет финалом тамошнего, что я называю «абсолютной конфиденциальностью», — но остается гораздо не мало способностей для «относительной приватности». И это же определенно положит финал всяким SIMAD, террористическим атакам, финалу беспощадности и остальных форм насилия над детками, представительницами слабого пола, стариками везде и везде».

    Вероятнее всего это же а также поставит в тупик большая часть форм коррупции и остальных злодеяний. Можно будет сделать бесповоротный общий вид тамошнего, что Дэвид Брин именовал «прозрачным обществом» либо этический футурист Джамаис Каско — «общественным всевидением».

    «Мы в конце концов обнаружим ответ на вопросец Ювенала во время римской античности: «Quis custodiet ipsos custodes», кто глядит за смотрителями?», — разговаривает ван Недервельде. — «И ответом будет: мы, люди, сограждане, сами — что полностью будет к месту, на мой взгляд».