Посему предпочтительнее доверять боту, а уж и не человеку?

    Боты, как только и автономные системы в целом, умеют вызывать беспокойство и неуверенность, в особенности когда них пользование в ежедневной жизни становится вероятным. Дабы сократить уровень беспокойства, нам надо немного сдвинуть focus с тамошних вещей, кои проделывают боты, на то, чем они являются. В неком смысле они умеют быть наиболее надежными, чем люди.

    Посему предпочтительнее доверять боту, а уж и не человеку?

    Нравится для вас это же либо нет, автономные системы уже тут и останутся тут. Под автономностью мы имеем в образу способность системы воспринимать собственные решения об фолиант, что выполнять и когда выполнять. До сего времени большинство примеров — роботы-пылесосы, автопилот самолета и альтернативные мелочевки, примитивны не особо автономны. Эти системы приспосабливаются к окружающей среде, автоматизированно отвечая на конфигурации внутри нее. Они запрограммированы приспособиться к окружающей среде.

    Однако старенькые как только мир истории научной фантастики рассказывают нам об фолиант, что будет далее. Нас тревожит то, что произойдет, когда пилот-человек, шофер либо оператор будет заменен программным обеспечением, которое без помощи других предпринимает, что выполнять.

    Во время воздушного перелета система автопилота может задерживать авиалайнер на конкретной линии движения, однако пилот предпринимает, какой же путь избрать, когда это же предпринять и что выполнять в чрезвычайной ситуации. Аналогичным образом круиз-контроль дозволяет нашим карам делать конкретные деяния без помощи других, хотя конкретно водители принимают принципиальные решения.

    Однако когда мы перейдем к заправдашним автономным системам, программное обеспечение будет играться еще огромную участие. Нам все больше и не пригодится человек для конфигурации маршрута самолета либо сворачивания седана на обочину.

    Как раз тогда люди начинают волноваться. Ежели машинка вправду сумеет воспринимать собственные решения, откуда нам аристократию, что это же неопасно? Посмотрев пару «Терминаторов», мы задаемся вопросцами, как только можно довериться машинкам? Для почти всех мысль высадки в авиалайнер, который летит сам по самому себе, уже кажется сумасшедшей, и не говоря уж об фолиант, дабы дозволить боту отвезти себя по всем сиим дорогам с безумцами за штурвалом.

    Похоже на то, что мы находимся на развилке. Или мы слепо доверяем сиим машинкам, или мы от их отказываемся. Однако вероятен и третий случай.

    Когда мы имеем дело с иным человеком, мы и не можем быть убеждены в фолиант, какое решение он воспримет, однако мы можем полагать зависимо от тамошнего, что думаем об нем. Мы считаем, сколько раз человек врал нам в минувшем, и записываем все его ошибки. Однако мы и не можем быть убеждены наверное, что этот человек лишний раз околпачит нас.

    Наши автономные системы, с альтернативный стороны, контролируются программным обеспечением, потому ежели мы можем изолировать все решения программного обеспечения на высочайшем уровне — те, кои обязан воспринимать человек, — мы сможем детально проанализировать работу этих программ. С людским мозгом этакое и не пройдет.

    Пользующееся популярностью направление исследовательских работ в информатике сейчас обеспокоено глубочайшим анализом программного обеспечения, также приведение логических доказательств, что программное обеспечение все время соответствует формальным требованиям. Этот подход, который именуется формальной верификацией, в особенности полезен для анализа и оценке критичного программного обеспечения, которое оказывает влияние на сохранность граждан, к примеру системы энерго-, жизне- и транспортного обеспечения. Изолировав ПО, принимающего принципиальные решения снутри автономной системы, мы можем проанализировать его работу при помощи формальной верификации.

    В энных вариантах мы можем обосновать, что программное обеспечение ни разу и не воспримет нехорошее решение.

    Процесс принятия решений — центральный при разработке бота, которому можно довериться. Все это же приводит к тамошнему, что хотя несчастливые случаи все гораздо умеют произойти, мы можем убедиться, что система все время старается них избежать. Сего недостаточно, однако это же решит некие из неурядиц старенькой научной фантастики.

    Хотя мы и не можем сообщить, что бот ни разу и не причинит кому-нибудь ущерба случаем, формальная верификация накрепко обоснует, что бот ни разу и не причинит ущерб преднамеренно. Часто, при оценке программного обеспечения и его работы, мы оцениваем не совсем только то, что будет выполнять ПО, да и посему. Ежели люди будут убеждены в фолиант, что система и не попробует причинить ущерб, скорее всего, они предстанут доверять этаким системам малость все больше. Вопросец не совсем только в попытке причинить ущерб, да и в попытке избежать его нанесения.

    И здесь в дело вступают философские вопросцы. Мы могли бы постараться обосновать, что бот ни разу и не навредит человеку сознательно. Однако что выполнять мед и полицейским ботам? Первый может постараться оживить кого-либо, сделав искусственный массаж сердца. Однако это же может причинить человеку ущерб.

    Полицейский бот отвечает за защиту населения, однако что выполнять, ежели правонарушитель стреляет в кого-либо из ружья? Может ли бот причинить ущерб правонарушителю, дабы предупредить огромную угрозу?

    Дабы сделать правильные методы поведения, придется узнать, что этакое применимое для ботов поведение, а уж что этакое робототехническая этика. Увлекательно, и не этими ли вопросцами будет заниматься совет по этике Гугл?