Ежели машинки умеют мыслить, заслуживают ли они штатских прав?

    За крайнее столетие мы достигнули больших фурроров в революции прав. Сюда можно записать и права дам, и детишек, и зверях, и ЛГБТ-сообщества, также почти все альтернативное. В различных странах различные аспекты, однако в общем и целом права одни. Вглядываясь в будущее, мы обязаны спросить себя: а уж что далее? Будем ли мы когда-нибудь биться за права искусственного ума? Ежели да, то когда произойдет эта революция ИИ? Как только она будет высмотреть?

    Ежели машинки умеют мыслить, заслуживают ли они штатских прав?

    Мы частенько говорим об фолиант, как только защитить нас от ИИ, однако кто предохранит ИИ от нас? Дабы сделать вожделенное будущее, в каком люди и разумные машинки будут умиротворенно сосуществовать вместе, нужно относиться к ИИ с почтением. По другому может случиться апокалипсис, коего эдак страшатся Элон Маск, Стивен Хокинг и Билл Гейтс. Существовало бы справедливо представить, что мозговитое, сознательное существо, которое способно испытывать наслаждение и боль, взбунтуется, ежели ему же и не отдать права, которых оно заслуживает.

    Правовая революция в сфере ИИ может появиться умопомрачительным сценарием. Однако как нам понятно, производство небиологической сознательной сути законы физики и не воспрещают. Эмоции, сознание, самосознание появляются в головному мозгу человека, а уж означает имеют физическую базу, которую в теории можно воспроизвести в системе искусственного ума. Экспоненциальное развитие нейтротехнологий в купе с беспримерным прогрессом в области ИИ означают, что умеют возникнуть и разумные, сознательные машинки.

    Рэй Курцвейл, технический директор Гугл, утверждает, что ИИ практически людского уровня покажется уже к 2029 году. Одно из исследовательских работ, проведенное английским правительством, наводит на идея, что уже в наиблежайшие 20-50 лет права умеют быть предоставлены и ботам. Гленн Макги, директор Колледжа биоэтики Олдена Марша, разговаривает уже об 2020 годе. В одной из собственных статей Макги подразумевает, что боты обязаны опасаться нас так же, как мы боимся них, и что мы обязаны принять меры предосторожности по них защите. В этаком случае, пишет он, мы будем выступать не совсем только в интересах ботов, да и в собственных, сохраняя свое собственное людское приемущенство. Мы и не будем производить новейший тип раба, вне зависимости от тамошнего, начинает понимать он, что является рабом, либо нет.

    Конституция ИИ?

    Ежели машинки умеют мыслить, заслуживают ли они штатских прав?

    Как только и главные права человека, права ИИ умеют включать в себя право на свободу, свободу слова и самовыражения, также равенство перед законом. В минувшем году, отвечая на вопросец об машинках, кои умеют мыслить, гарвардский ученый Моше Хоффман заявил, что ИИ востребует целый ряд прав, в фолиант числе право на невыключение и свободу выбора процесса к запуску. Хоффман разговаривает, что расширение прав ИИ может даже привести к презентабельной демократии и действиям выборов.

    Сейчас мы можем лишь догадываться об природе этих прав.

    Обязаны ли все сознательные ИИ иметь доступ к одной инфы? Обязаны ли они иметь право на возлюбленная к людям и иным ИИ в одинаковой мере? А уж что будет с правом на равные способности для работы и защиту от дискриминации? Обязаны ли они иметь право на защиту от перепрограммирования?

    Будет ли «отключение» ИИ считаться убийством? Посему нет? Когда мы кого-либо убиваем, мы, по большому счету, отнимаем у него способность жить без его согласия. Отключив самосознательный искусственный ум, и не нарушим ли мы его главное право на жизнь?

    В базе сего спора покоится нравственная основа, которую мы используем, дабы решить, обязан ли человек иметь доступ к правам либо нет. Почти все из нас полагают, что хоть какое существо, могущее испытывать наслаждение и боль, обязано иметь доступ к конкретным правам. Революция прав ИИ может зависеть от наличия у умственных машин сознания, навыки ощущать, что они есть, а уж означает, ощущать наслаждение и боль. Предоставление прав нескольким строчкам кода, и не имеющих навыки к самосознанию либо вакантной воли, и не будет иметь смысла. Оксфордский математик Маркус дю Сотой полагает, что как мышление ИИ достигнет людского уровня, нашим долгом будет позаботиться об его благополучии. Он разговаривает, что ежели мы усвоим, что у него существуют конкретный уровень сознания, мы полностью могли бы предоставить ему же права.

    Алекс Напп, один из редакторов Forbes, но, полагает, что сам вопросец об фолиант, дабы предоставить ИИ штатские права, абсурден, так как неважно какая it система программируется в той самой либо другой степени. Ежели ИИ запрограммирован быть нравственно обязанным либо злым, это же фундаментально будет нарушать его право на выбор. Ежели ИИ и не может сконфигурировать руководила, установленные для него людьми, будут ли они справедливыми? Будет ли это же твердить об его сознательном участии?

    Можно представить, что люди а также запрограммированы орудовать спецефическим образом. Почти все наши деяния, как только субъективные, эдак и видовые, программируются на уровне генов и наших критерий среды. Ученые продолжают спорить, существуют у граждан свобода воли либо нет, однако большая часть из нас полагает, что базисные права обязаны быть у любых. Посему бы и не применить это же к ИИ?

    Может, пора призадуматься, как только сознательный искусственный ум отнесется к правилам, кои мы для него подготовили?