Став киборгами, сможем ли мы защитить наши мозги от взлома?

    Скорое развитие сферы мозг-машинных интерфейсов и нейропротезирования мал-помалу подводит нас к революции в способах исцеления и поддержке парализованных граждан. В то же время эти технологии в дальнейшем умеют определить самому себе наиболее всепригодное применение и предстать отправной точкой для предстоящей эволюции населения земли и его перехода в новейший общий вид – киборгов. Однако перед тем самым, как только мы достигнем этаких высот, нам нужно убедиться в фолиант, что аналогичные нейронные прибора совсем надежны, неопасны и целиком защищены от наружного воздействия – хакерский атак, ежели проще.

    С мечтами об нашем безоблачном кибернетическом грядущем исследователи из женевского Центра био- и нейроинжиниринга Висса в Швейцарии (Wyss Center for Bio and Neuroengineering) выпустили на портале Science собственную работу «Help, hope, and hype: Ethical dimensions of neuroprosthetics». Задачка ее создателей заключается не совсем только в описании тамошних способностей, кои пред нами откроет сфера нейротехнологий, да и в повышении публичного внимания к тем самым опасностям, кои умеют подстерегать нас на пути к этому сверхвысокотехнологичному грядущему. И важным необходимо отметить, что создатели разработали несколько путей, кои дозволят смягчить потенциальные трудности гораздо перед началом них появления.

    И не отметить скорое развитие нейротехнологий становится неосуществимым уже сейчас. Инженерами и исследователями ведется активная технология и улучшение мозг-машинных интерфейсов, кои дозволят парализованным людям нормализовать контроль над собственными конечностями, ампутантам – отлично заведовать механизированными протезами, а уж клиентам с нарушением речевых функций нормализовать способность за счет навыки в телепередаче собственных мыслей. Изумительно, однако уже ныне наблюдается объемной прогресс в этом направлении. Ученые сделали экзоскелет, позволяющий человеку с парализованными нижними конечностями лупить по мячу. Парализованную лабораторную мортышку обучили заведовать инвалидным креслом при помощи мыслей. Разрабатываемый интерфейс «мозг — мозг» дозволил человеку заведовать движениями конечностей остальных граждан. Каждый этакий технологический прорыв дозволяет нам по немножко познавать все больше об головном мозге и об фолиант, как только он ишачит. Однако еще больше немаловажно, что все эти технологии имеют потенциал возвращения ампутантам и парализованным людям самостоятельности и независимости.

    Приходит время поздороваться с грядущим: управляемые людским мозгом боты, как только на картинке свыше, уже начинают заходить в нашу ежедневную жизнь

    Однако у любых этих технологий, к огорчению, существуют и оборотная сторона. Как только помечает директор Центра Висса Джон Донохью, вокруг данной области начинают возникать суровые этические вопросцы и потому самое время начать мыслить об фолиант, каким образом нейропротезирование и сфера разработок мозг-машинных интерфейсов умеют столкнуться со злоупотреблением в дальнейшем, также об фолиант, как только от сего защититься.

    «Несмотря на то, что мы как и раньше перед началом финала и не осознаем, как только ишачит головной мозг, мы все поближе становимся к моменту, когда сможем правильно декодировать конкретные мозговые сигналы. Потому мы обязаны понимать, какое воздействие все это же может оказать на общество», — комментирует Донохью.

    «Мы обязаны пристально разобрать возможные последствия жизни плечо о плечо с полуинтеллектуальными машинками, управляемыми людским мозгом, и обязаны иметь доделанные разработанные механизмы, кои сумеют уверить нас в них сохранности и согласовании нашим морально-этическим нормам».

    Центр Висса озабочен тем самым, что с наиболее обширной интеграцией этих нейроустройств в нашу ежедневную жизнь будут расширяться и способности этих инструментов. Они будут становиться наиболее всепригодными. Уже ныне мозг-машинные интерфейсы можно применять для тамошнего, дабы, управляя механизированной рукою, подхватить чашечку либо, глядя на дисплей компа, избрать определенное слово в тексте. Однако когда-нибудь этакие прибора, лишь наиболее продвинутые, будут употребляться как только аварийным работником для ликвидации небезопасной утечки газа, эдак и матерью подростка, у которой и не хватает чрезмерных рук, дабы успокоить собственного плачущего ребенка.

    Пойди что-то и не эдак в этих вариантах, к примеру, автоматическая механизированная рука рабочего оборотит и не тамошний кран либо мама случаем выронит с механизированных рук собственного подростка, немаловажно задать самому себе вопросец: где начинается и завершается зона ответственности и кто в этаких вариантах обязан быть признан виноватым? Юридической системе грядущего придется измерять, присутствует ли это же в зоне ответственности производителя механизированного изделия (в конструкции обнаружен брак либо программная ошибка) либо юзера (неверное пользование либо наружное неавторизованное влияние на целостность конструкции изделия).

    Дабы минимизировать этакие потенциальные трудности, создатели обсуждаемой сейчас работы дают, дабы неважно какая полуавтономная система комплектовалась функцией автоматизированной блокировки и в случае ненадлежащего либо незапланированного пользования активизировалась в обход прямого канала взаимодействия «мозг — компьютер». Ежели искусственная конечность начнет делать деяния, кои юзер и не предполагал для исполнения, то этакий «выключатель» сумеет без помощи других принять решение по моментальной деактивации системы, предотвратив потенциальную неудачу.

    Очередным нюансом, беспокоящим исследователей, является сохранность личной жизни юзера и целесообразность в защите хоть какой субъективной инфы, которая будет записываться аналогичными системами. Очень возможно, что системы, базирующиеся на интерфейсе «мозг — компьютер», будут коллекционировать самую разнообразную информацию об неврологическом статусе юзера, после этого она будет передаваться на персональный компьютер. Конечно, что такова расчетная схема и не может и не вызывать некие опаски по поводу защиты секретных заданных. По воззрению исследователей Центра Висса, собираемая информация возможно украдена и применена ненадлежащим образом.

    «Защита личной неврологической инфы об людях, целиком парализованных и использующих интерфейсы «мозг — компьютер» в качестве одиного-единственного вероятного деньги для коммуникации с наружным миром является в особенности важным», — разговаривает Нильс Бирбаумер, старший научный коллега Центра Висса.

    «Успешная калибровка систем, действующих с интерфейсом «мозг — компьютер» будет, кроме всего, зависеть от тамошнего, как только них головной мозг будет реагировать на субъективные вопросцы, связанные с них семьей, к примеру, имя, возраст и семейное местоположение детишек и т.д.. Для любых вовлеченных в этом случае граждан обязана обеспечиваться строгая система защиты субъективных заданных, кои будут требоваться для корректной работы функций прибора. Идет речь как только о инфы, которая будет выясняться при помощи субъективных вопросцев, эдак и неврологической инфы пациента».

    Гораздо мощнее исследователей из Центра Висса тревожит вероятность цифрового взлома присоединенного к головному мозгу прибора злодеями, что может практически поставить под опасность жизнь юзера сего прибора. При помощи эдак именуемого «взлома мозга» умеют выполняться злостные манипуляции с мозговыми имплантатами. Хакеры сумеют получить контроль над движениями механизированных конечностей человека.

    Потенциальное решение данной трудности будет включать завышенный уровень кодировки инфы, производство надежной сетевой сохранности и открытого коммуникационного канала меж производителем изделия и его юзером. Использование большинства из этих предполагаемых мер будет очень сложный задачей, хотя бы в взаимосвязи с возможным отсутствием всепригодных эталонов, кои будут применяться в системах сохранности. Исходя из сего, спецы Центра Висса полагают, что настает время уже ныне начинать осознавать те самый пути, кои дозволят всем скоординироваться и выработать всепригодные промышленные эталоны по создании и интеграции нужных защитных мер.

    «Некоторые облики опасений, на кои указывают создатели работы, умеют в один прекрасный момент перевоплотиться в настоящие трудности. Потому я согласен с тем самым, что технология некоторых всепригодных эталонов нужна уже ныне, дабы впоследствии мы и не оказались в ситуации, когда будет уже очень поздно», — комментирует Адам Кейпер, старший научный коллега Центра по исследованию этики и публичного воззрения.

    И тем не менее Кейпер, и не принимавший роль в написании обсуждаемой работы, отчасти скептически разглядывает случай, при котором кто-то вообщем захотит взламывать интерфейс «мозг — компьютер» целиком парализованного человека или интерфейс, использующийся в качестве канала оборотной нейронной взаимосвязи меж человеком и тренировочными системами, другими словами програмками, использующими неинвазивные способы мозгового сканирования, вроде аппаратов электроэнцефалографии, систем для тренировки собственного поведения, понижения стресса, занятия медитацией и т.д..

    «Какую выгоду из этакого взлома сумеет получить взломщик? Да почти никакой. Непременно, опаски по поводу сохранности и защите субъективной инфы умеют предстать немаловажным предметом в дальнейшем. Однако лично мне кажется, что это же ранний разговор».

    Кейпер прибавляет, что завышенный градус опасений, связанных с использованием интерфейсов «мозг — компьютер» и полуавтономных ботов можно сопоставить с тем самым уровнем тревоги, который появляется в сообществе по поводу всемирной роботизации, обещающей предстать последующим этапом развития нашей социальной жизни. И хоть Кейпер соглашается с энными качествами, по его воззрению, в целом неполадка, по последней мере ныне, кажется все больше выдуманной, чем настоящей.

    «Авторы работы полагают, что мы и не обязаны очень увеличивать мед грамотность населения и его осведомленность в индивидуальностях функционирования нейрофизиологических систем, кои будут употребляться при схожих образах протезирования. Однако это бред», — полагает Кейпер.

    По его воззрению, сообщество само навряд ли будет проявлять завышенный энтузиазм в схожих узкоспециализированных тематиках. И тем не менее профессионал признает, что частенько очень мудрено подобрать надобное время для начала публичного диалога по этическим и соц вопросцам по поводу массовой интеграции новеньких технологий в нашу ежедневную жизнь.

    «Всегда существуют риск предпринять аналогичные заявления очень рано, когда мы гораздо сами толком и не перед началом финала будем осознавать, вправду ли пред нами присутствует суровая неполадка. Этакие прецеденты уже были. Взять хотя бы наноэтику, сторонники которой гораздо десятилетие обратно, толком и не разобравшись в вопросце, подняли шум, заявив, что продвинутые нанотехнологии покажутся чуть не одномоментно, и даже постарались выстроить на этом реальную академическую дисциплину. Однако напоследок оказалось, что развитие нанотехнологий — это же куда наиболее упругий и плавный процесс».

    «Я думаю, что с данной точки зрения создателей обсуждаемой сейчас работы можно лишь похвалить. Похвалить за то, что свои опаски они выражают вконец и не конструктивными заявлениями, а уж полностью самому себе размеренными объяснениями», — комментирует Кейпер.

    Непременно, исследователи Центра Висса подняли очень важную тематику. В какой-то момент описываемые сейчас технологии отыщут путь в нашу ежедневную жизнь и будут служить в качестве поддержки не совсем только недееспособным, да и полностью самому себе здоровым людям.

    В перспективе неинвазивные интерфейсы «мозг — компьютер» можно будет применять для сотворения собственного рода телекинетической взаимосвязи с миром вокруг нас, в каком мы собственными идеями сможем заведовать освещением в жилом доме либо хотя бы ординарно переключать телеканалы. То есть, предстоящий прогресс будет в силах перевоплотить эти технологии в технологический общий вид телепатии. Что все-таки касается исследователей из Центра Висса, то них главный посыл состоит в том, дабы мы были уже готовы к этому и сумели предупредить пользование схожих технологий в злостных целях.