Посему люди доверительнее относятся к ботам, совершающим ошибки?

    Вы, может быть, уже лицезрели «гифку», где бот напрасно пробует поставить переносимый им же объект на стол и в итоге ниспадает, как будто от бессилия. Ежели нет, она ожидает вас ниже. Изображение существовало сотворено на основе видео, которое не так давно корпорация Boston Dynamics продемонстрировала на следующем мероприятии TED talk, где она поведала и показала свои крайние заслуги в области робототехники. Там были и уже узнаваемый нам робот-собака Спот, и бипедальный бот Atlas, как только раз и ставший героем видео.

    Невзирая на то, что организацию уже и не раз называли «предвестником робоапокалипсиса» (она вправду разрабатывает одни из самых продвинутых ботов во всем мире), реакция на крайнее видео и а именно GIF-изображение у граждан оказалась еще наиболее мягенькой. А уж некие эдак и совсем пособолезновали стальному бедняге.

    «Мне предстало максимально жалко сего бота. Нас ждет максимально странноватое будущее», — поделился собственными идеями комментатор на портале Reddit, где в первый раз возникло это же GIF-изображение.

    «Это существовало самое смешное поведение бота, посреди любых видео, что я лицезрел. Бедолага. Он эдак старался», — пометил альтернативный человек в ветке обсуждения.

    Однако посему люди стают «более дружелюбными» не совсем только к ботам Boston Dynamics, однако вообщем ко всем ботам, когда крайние совершают ошибки, иногда очень даже грубые, как только тамошняя, что можно созидать на изображении свыше? Согласно группе ученых из Центра человеко-компьютерного взаимодействия Зальцбурга (Австрия), это же можно растолковать этим же, посему нам нравится, когда альтернативные люди совершают ошибки. Все дело в фолиант, что, независимо от потенциальных отличий в соц положении, это же ставит них поближе к нам, выполняет них доступнее. То есть, ошибки принуждают ботов высмотреть «человечнее», ведь никто из нас и не застрахован от ошибок.

    Группа исследователей из Зальцбурга под управлением Николь Мирниг не так давно проверила эту догадку в рамках опыта с привлечением 45 волонтеров. Перед ними существовала поставлена задачка чего-нибудть собрать из архитектора LEGO с помощью маленького гуманоидного бота. Мирниг и ее коллеги, проводя некие испытания, умышленно запрограммировали робота для тамошнего, дабы он совершал ординарные маленькие ошибки, к примеру, повторял слова либо и не мог подхватить части архитектора. Опосля каждой сессии по сбору архитектора ученые просили волонтеров оценить бота по ряду критериев, включая привлекательность, антропоморфизм (человекоподобие) и ум. Результаты продемонстрировали, что когда бот совершал ошибки, людям он нравился все больше.

    Мудрено сообщить точно, посему совершающие ошибки боты стают для граждан наиболее «своими», но, как только подразумевает Мирниг, все сопряжено с эдак именуемым «эффектом тотального провала», который, согласно социальной психологии, наступает, когда для нас человек вызывает все больше доверия либо становится наиболее симпатичным при совершении ошибок. ИСТИНА тут же отмечается, что спецэффект максимально контекстуально зависим. Другими словами нам и не нравятся люди, кои всегда совершают ошибки, однако нам нравится, когда кто-то выполняет маленькие ошибки иногда. И боты как только раз подпадают под эту последнюю категорию.

    В опыте в Зальцбурге волонтеров попросили чего-нибудть собрать из архитектора LEGO при помощи бота. Весь процесс записывался, а уж потом ученые провели анализ реакции

    «Исследование продемонстрировало, что люди со собственными точками зрения и ожиданиями в отношении ботов в большей степени полагаются на то, что они выяснили о этих самых ботах из медиа», — поведала Мирниг в интервью Digital Trends.

    «В эти медиаисточники можно записать и киноленты, в каких боты часто представлены в образе безупречно функционирующих сущностей, будь то злыми либо хорошими. Перед началом собственного личностного взаимодействия с роботом люди стараются возвратиться к этому эксперементу наблюдений и к сиим мемуарам и ожиданиям. Исходя из сего, я предполагаю, что взаимодействие с роботом, совершающим ошибки, принуждает ощущать нас, что мы в наименьшей степени уступаем современным технологиям и быстрее становимся наиболее закадычными с ними, с теми самыми же роботами».

    Вероятнее всего, работа в этом психическом нюансе продолжится. И ежели в итоге этакие выводы подтвердятся, то в дальнейшем предприятия, специализирующиеся созданием ботов, умеют запрограммировать них на совершение малозначительных ошибок при содействии с нами. Само собой разумеется, это же все будет максимально подробно просчитано, дабы ошибки были и не так обстоятельными, дабы воздействовать на эксперимент в рамках сего взаимодействия. В общем, машинки в какой-то момент вправду умеют предстать человечнее, хоть эта человечность и будет искусственной. Однако, как оказалось, наше подсознание можно одурачить. И сиим неукоснительно кто-то сумеет пользоваться.