Чего же страшится сам разраб ИИ в собственном творении

    Как только человек, занимающийся исследовательскими работами искусственного ума, я частенько сталкиваюсь с воззрением об фолиант, что почти все люди страшатся ИИ и тамошнего, во что он может перевоплотиться. На деле логично, ежели глядеть с позиции истории населения земли, причем обращая внимание на то, чем пичкает нас промышленность развлечений, что люди умеют опасаться кибернетического восстания, которое принудит жить нас на изолированных территориях, а уж остальных превратит в «Матрицеподобный» общий вид человечьих батареек.

    И все-же для меня, смотря на все про все эти эволюционные компьютерные фотомодели, кои я использую в технологиях ИИ, мудрено мыслить об фолиант, что мои безопасные, незапятнанные как только слеза малыша сотворения на дисплее моего компа в один прекрасный момент сумеют перевоплотиться в чудовищ футуристической антиутопии. На самом ли деле меня можно именовать «разрушителем миров», как только в один прекрасный момент сожалел и рассказывал об самому себе Оппенгеймер опосля тамошнего, как только возглавил программку по созданию ядерной бомбы?

    Может быть, я бы принял этакую славу, а уж может критики моей работы все-же правы? Может, лично мне вправду пора закончить избегать вопросцев об фолиант, какие ужасы в отношении искусственного ума имеются у меня самого, как только у профессионала в отрасли ИИ?

    Содержание

    • 1 Ужас перед непредсказуемостью
    • 2 Ужас перед некорректным внедрением
    • 3 Ужас перед неверными соц ценностями
    • 4 Ужас перед трагическим сценарием

    Ужас перед непредсказуемостью

    Персональный компьютер HAL 9000, ставший мечтой научного фантаста Артура Чарльза Кларка и воплощенный в жизнь кинорежиссером Стэнли Кубриком в его ленте «Космическая одиссея 2001 года», является хорошим примером системы, давшей сбой по причине неожиданных причин.

    В почти всех сложноватых системах – Титанике, галлактическом шаттле NASA и Чернобыльской ядерной электростанции – инженерам приходилось соединять воединыжды меж собой огромное количество компонент. Может быть, скульпторам этих систем существовало хорошо понятно, как только каждый ее элемент ишачит по отдельности, однако они недостаточно ладно соображали, как только все эти ингридиенты будут ишачить совместно.

    Результатом стали системы, кои эдак ни разу перед началом финала и не были поняты них же авторами, что и привело к знаменитым последствиям. В каждом случае – корабль утоп, два шаттла взорвались, а уж практически вся Европа и части Азии столкнулись с неувязкой радиоактивного загрязнения – комплект относительно маленьких неурядиц, однако по случайности произошедших сразу, сделали чертовский спецэффект.

    Я красиво могу самому себе предположить, как только мы, авторы ИИ, можем придти к аналогичным результатам. Мы берем крайние выработки и научные исследования в когнивистике (наука об мышлении, — прим. ред), переводим них в компьютерные методы и добавляем все это же в имеющиеся системы. Мы пытаемся создать ИИ без тотального осознания собственного своего ума и сознания.

    Этакие системы, как только Watson от IBM либо Alpha от Гугл, воображают собой искусственные нейронные паутине, владеющие внушительными вычислительными способностями и способны наводить справку с вправду сложноватыми задачками. Однако пока что единственное, к чему приведет ошибка в них работе, будет результатом проигрыша в умственной игре «Jeopardy!» либо упущенной возможностью одолеть еще одного самого наилучшего во всем мире геймера в настольную логическую игру Го.

    Эти последствия и не носят мирового нрава. На деле худшее, что может случиться с людьми в том случае, эдак это же кто-то проиграет некую сумму денежек на ставках.

    Все же архитектура ИИ становится все труднее, а уж компьютерные процессы — все скорее. Способности ИИ с течением времени будут лишь возрастать. А уж уже это же приведет нас к тамошнему, что мы начнем надеяться на ИИ больше ответственности, даже невзирая на растущие опасности неожиданных причин.

    Мы красиво понимаем, что «ошибки – это же часть людской природы», потому для нас будет ординарно на физическом уровне нереально сделать по-настоящему неопасную во всех отношениях систему.

    Ужас перед некорректным внедрением

    Меня и не максимально тревожит непредсказуемость последствий в работе ИИ, который я разрабатываю, используя для сего подход эдак именуемой нейроэволюции. Я создаю виртуальные окружающей среды и заселяю них цифровыми созданиями, давая них «мозгам» команды по решению задач вырастающей трудности.

    С течением времени эффективность решения задач этими созданиями растет, эволюционирует. Тамошних, кто совладевает с задачками предпочтительнее, любых отбирают для репродукции, создавая на них основе новое поколение. Сквозь почти все поколения эти цифровые сотворения развивают когнитивные навыки.

    К примеру, прямо ныне мы делаем первые шаги в развитии машин перед началом уровня исполнения простейших навигационных задач, принятия простейших решений либо запоминания нескольких битов инфы. Однако вскоре мы добьемся развития машин, кои сумеют делать наиболее сложноватые задачки и будут владеть еще наиболее действенным общим уровнем ума. Нашей финишной целью является производство ума людского уровня.

    В процессе данной эволюции мы попытаемся найти и поправить все ошибки и трудности. С каждым новейшим поколением машинки будут предпочтительнее наводить справку с ошибками, по сопоставлению с прошлыми. Это же повысит шансы на то, что мы сможем обусловить все непредсказуемые последствия в симуляциях и исключить них гораздо перед началом тамошнего, как только они сумеют сбываться в действительном мире.

    Очередная вероятность, которую предлагает эволюционный способ развития, заключается в наделении искусственного ума этикой. Полностью возможно, что этакие этические и моральные индивидуальности человека, как только надежность и альтруизм, являются результатом нашей эволюции и фактором ее продолжения.

    Мы можем сделать искусственную среду и наделить машинки возможностями, позволяющими им же показать доброту, честность и эмпатию. Это же готов стать одним из методов убедиться в фолиант, что мы разрабатываем наиболее послушливых слуг, ежели свирепых роботов-убийц. Все же, невзирая на то что нейроэволюция может уменьшить уровень неожиданных последствий в поведении ИИ, она и не может предупредить неверное пользование искусственного ума.

    Как только ученый, я обязан следовать собственным обязанностям перед истиной и докладывать об фолиант, что нашел в рамках собственных тестов независимо об тамошнего, нравятся лично мне них результаты либо нет. Моя задачка заключается и не в фолиант, дабы измерять, что лично мне нравится, а уж что нет. Немаловажно лишь то, что я могу обнародовать собственную работу.

    Ужас перед неверными соц ценностями

    Быть ученым – и не означает потерять человечность. Я обязан на каком-то уровне вновь обретать взаимосвязь со собственными надеждами и ужасами. Являясь морально и политически целевой персоной, я обязан учесть потенциальные последствия собственной работы и ее вероятный спецэффект на сообщество.

    Как только ученые и как только представители сообщества, мы до сего времени и не пришли к точной идее об фолиант, чего же конкретно желаем получить от ИИ и чем он обязан предстать напоследок. Отчасти это же, конечно же, сопряжено с тем самым, что мы до сего времени перед началом финала и не осознаем его потенциал. Однако тем не менее нам нужно верно понять и решить, что мы желаем получить от вправду продвинутого искусственного ума.

    Одна из наибольших сфер, на которую люди обращают свое внимание в общении о ИИ, – это же трудоустройство. Боты уже делают за нас сложноватую физическую работу, к примеру, собирая и сваривая меж собой части авто кузовов. Однако в один прекрасный момент настанет денек, когда ботам поручат исполнение когнитивных задач, другими словами им же поручат то, что ранее числилось только неповторимой способностью самого человека. Самоуправляемые авто сумеют поменять шоферов такси; самоуправляемые авиалайнеры и не будут нуждаться в пилотах.

    Заместо тамошнего дабы приобретать мед помощь в пт неотложной помощи, наполненной все время вялым персоналом и хирургами, пациенты сумеют проводить обследования и познавать диагнозы при помощи экспертных систем с молниеносным доступом ко всем мед познаниям. Хирургические операции будут проводиться неподверженными к вялости роботами, с безупречно «наметанной рукой».

    Юридические консультации можно будет получить из всеобъятной правовой основы. За рекомендациями по инвестициям будем обращаться к экспертным системам рыночного прогнозирования. Может быть, в один прекрасный момент вся людская работа будет производиться машинками. Даже мою работу можно будет выполнять скорее благодаря пользованию немалого цифры машин, безустанно изучающих, как только предпринять машинки гораздо умнее.

    В реалиях нашего сегодняшнего сообщества автоматизация уже принуждает граждан покидать свои рабочие пространства, делая зажиточных хозяев этаких автоматических машин гораздо богаче, а уж других – гораздо беднее. Однако это же и не научная неполадка. Это же политическая и социоэкономическая неполадка, которую обязано предпринимать само сообщество.

    Мои научные исследования сего и не изменят, но мои политические устои, наряду с человечностью, может быть, приведут к происшествиям, при которых ИИ сумеет перевоплотиться в только полезную процедуру, заместо тамошнего дабы предпринять разрыв меж одним процентом мировой элиты и остальными нами гораздо обширнее.

    Ужас перед трагическим сценарием

    Мы подобрались к крайнему ужасу, навязанному нам сумасшедшим HAL 9000, Терминатором и хоть каким иным злодейским сверхинтеллектом. Ежели ИИ продолжит развиваться перед началом того времени, пока что и не затмит человечий ум, станет ли искусственная сверхинтеллектуальная система (либо комплект этаких систем) анализировать человека в качестве никчемного материала? Как только мы сможем оправдать свое существование перед личиком сверхинтеллекта, могущего выполнять и творить то, что и не будет в силах ни один человек? Сможем ли мы избежать участи быть стертыми с личика Почвы машинками, которых мы же и посодействовали сделать?

    Потому важнейший вопросец в этаких обстоятельствах будет звучать эдак: для чего мы будем надобны искусственному сверхинтеллекту?

    Случись такова ситуация, я бы, наверное, произнес, что я добрый человек, который даже занес вклад в производство сего сверхинтеллекта, перед которым ныне нахожусь. Я бы воззвал к его сочувствию и сопереживанию, дабы сверхинтеллект оставил меня, этакого сострадающего и сопереживающего, в живых. Я бы а также добавил, что само по себе обилие сортов владеет приоритетом и Вселенная так велосипеда, что существование людского образа внутри нее на деле очень немного.

    Однако я и не могу твердить за все население земли, потому за нас любых лично мне будет мудрено определить весомый аргумент. Ординарно, когда я слежу на нас любых, я вправду вижу, что мы не мало чего же создали и делаем некорректно. Во всем мире царствует ненависть друг к соседу. Мы идем войной друг на друга. Мы несправедливо распределяем пищу, познания и мед помощь. Мы загрязняем планетку. В этом мире, конечно же, существуют огромное количество не плохих вещей, однако, ежели посмотреть на все про все те самый дрянные вещи, что мы сотворили и продолжаем творить, будет максимально мудрено подобрать аргумент в поддержку нашего предстоящего существования.

    К счастью, нам пока что и не придется оправдывать свое существование. У нас есть еще время. От 50 перед началом 250 лет, зависимо от тамошнего, как резво будет развиваться искусственный ум. Мы, как только общий вид, обладаем возможностью собраться всем совместно и определить добрый ответ на вопросец, посему сверхинтеллект и не обязан будет стереть нас с личика планетки.

    Будет максимально мудрено решить этот вопросец. Ведь твердить, что мы поддерживаем обилие и этнокультурные разницы, и выполнять это же – это же совсем различные вещи. Как только и твердить об фолиант, что мы желаем спасти планетку, и удачно с сиим наводить справку.

    Все мы, будь то любая отдельная персона либо сообщество в целом, обязаны приготовиться к чертовскому сценарию, используя то время, дабы быть доделанными отобразить и обосновать, посему наши творения обязаны дозволить нам продолжить существовать. Или же мы можем ординарно продолжать слепо веровать, что этакое развитие обстоятельств нереально, и ординарно закончить яизвестия дискуссии на данную тему.

    Но независимо от тамошнего, какую физическую угрозу может представлять для нас сверхинтеллект, не стоит забывать, что представлять угрозу он будет к тому же политическую, также экономическую. Ежели мы и не обнаружим метода повысить наш уровень жизни, то в итоге ординарно подпитаем капитализм разнорабочим искусственным умом, который будет служить только горстке выбранных, владеющих всеми деньгами изготовления.

    Оригинал этойданной для нас статьи был размещен на медиа-сайте theconversation.com Арендом Хинтзе (Arend Hintze), доцентом кафедры интегративной биологии, компьютерных наук и инженерии Вуза штата Мичиган