Воззрение профессионала: ИИ — страшилка 21 века

    Новейший замысел Элона Маска пересадить нас любых в самоуправляемый транспорт говорит о его жесткой вере в искусственный ум, который гарантирует, что его «Теслы» будут мозговитыми и сумеют реагировать на разнообразные дорожные ситуации в режиме настоящего времени. ИИ в силах на позарез достойные внимания вещи. На минувшей недельке, к примеру, авторы компьютерной програмки AlphaGo сказали, что них программное обеспечение научилось ориентироваться в сложноватой системе английского метрополитена как только у себя особняки.

    Воззрение профессионала: ИИ — страшилка 21 века

    И тем не менее ИИ обязан пройти длительный путь, до того как люди начнут переживать об переходе мира под тотальное руководство машин, полагает Орен Этциони, компьютерный ученый, который провел крайние несколько десятилетий в попытке решить фундаментальные трудности искусственного ума. В текущее время Этциони является первостепенным исполнительным директором Алленовского колледжа искусственного ума (AI2), организации, которую соучредитель Microsoft Пол Аллен сформировал в 2014 году. С ее помощью он планировал сосредоточиться на возможных выгодах ИИ — и развеять домыслы, кои распространяет Голливуд и альтернативные ученые, на тематику опасностей людской расе.

    Собственные проекты AI2 и не особо впечатляют — среди их поисковая машина на базе ИИ для исследований Semantic Scholar, для примера — но посвящены этаким решениям в области ИИ, как только рассуждения, тем двигают всю область вперед.

    Журнальчик Scientific American взял у Этциони интервью на недавнешней конференции, посвященной ИИ, в Нью-Йорке, где он выразил озабоченность по поводу тамошнего, что предприятия преомнажают текущие способности данной технологии, а именно и технику машинного обучения, выдающегося как только глубочайшее обучение. Этот процесс пропускает заглавные наборы заданных сквозь паутине, имитируя нейронные паутине людского головного мозга, и дозволяет компам без помощи других учиться решению специфичных неурядиц, к примеру, распознаванию изображений либо идентификации заядлых объектов на фото. Этциони а также поведал, посему 10-летний подросток умнее програмки AlphaGo и посему нужно будет создать програмки искусственного ума по типу «хранителей», кои и не дозволят иным программкам ИИ предстать коварными.

    Наблюдается ли раскол посреди исследователей ИИ на тематику наилучшего пути развития технологии?

    Некие люди прыгают свыше головы. Мы смотрим обстоятельный прогресс в этаких областях, как только определение речи, самоуправляемые авто (хоть и в немного консервативной форме) и, конечно же, AlphaGo. Все эти технические заслуги полностью настоящи. Однако как только мы них интерпретируем? Глубочайшее обучение, явно, ценная разработка, однако дабы сделать искусственный ум, нам надо решить огромное количество остальных неурядиц, включая рассуждения (дабы машинка могла осознавать, а уж не попросту рассчитывать 2 + 2 = 4) и получение фоновых познаний, на базе которых машинка могла бы производить контекст. Осознание естественного языка — еще один пример. Даже ежели у нас существуют AlphaGo, у нас нет програмки, которая может дочитать и целиком осознать абзац либо даже ординарно предложение.

    Рассказывают, что глубочайшее обучение — «лучшее, что у нас есть» в рамках ИИ. И не играется ли это же против глубочайшего обучения?

    Ежели у вас существуют не мало заданных, помеченных таким макаром, что персональный компьютер знает, что они означают, существуют не мало вычислительной мощности и вы попытаетесь определить закономерности в этих заданных, с глубочайшим обучением тягаться без толку. В случае такого же AlphaGo, система возделывает 30 миллионов позиций и учит программку ИИ адекватно двигаться в различных ситуациях. Существуют и альтернативные сценарии — например, радиологические снимки — когда снимки помечаются как только с опухолью и без, а уж програмка глубочайшего обучения них перебирает и выявляет опухоли. С глубочайшим обучением можно выполнять не мало всяких увлекательных вещей, и да, это же прорывная разработка.

    В чем все-таки неполадка?

    Неполадка в фолиант, что в этаких ситуациях надо намного все больше ума, чем ординарно обученная програмка. Представьте заданные, кои доступны ученику в рамках обычного теста вроде ЕГЭ либо вступительных экзаменов в университет. Нельзя исследовать 30 миллионов предшествующих экзаменов, кои отмечены как только «успешные» либо «безуспешные», дабы набрать высший балл. Это же наиболее непростой, интерактивный процесс обучения. Ум а также включает обучение из беседы либо в контексте, в ходе прочтения книжки. Однако невзирая на все про все глубочайшее обучение, у нас нет програмки, могущей на подвиг 10-летнего, который может взять книжку, дочитать главу и ответить на вопросцы, об чем эта книжка.

    Будет ли способность ИИ проходить стандартизованные испытания изрядным прорывом в области технологий?

    Мы практически начали ишачить над сиим в рамках исследовательской програмки в Алленовском колледже искусственного ума. В минувшем году мы провозгласили бонус в размере 50 000 баксов для любых, кто сумел бы сделать программное обеспечение на базе ИИ, могущее пройти обычный научный тест восьмиклассников. Наиболее 780 команд со всего мира ишачили несколько месяцев над сиим, однако никто и не сумел набрать все больше 60%. Это же показывает близкую к реальности и количественную оценку тамошнего, где мы находимся сейчас.

    Как только самым действенным ИИ удается адекватно отвечать на вопросцы?

    Все дело в языке. Более удачные системы задействуют подробно собранную информацию из научных текстов и остальных общественных ресурсов, которая потом просеивается при помощи подробно настроенных информационно поисковых способов в поисках топовых ответов, предпочтительно с несколькими вариациями. К примеру, что из сего будет топовым проводником электро энергии: пластмассовая ложка, древесная кочана либо металлический поднос. Програмки хорошо разбираются в формулах и умеют обусловить, что электричество и железо либо проводимость и железо частенько совместно встречаются в почти всех документах, почаще, чем пластик и проводимость, к примеру. Потому время от времени програмки умеют срезать путь и определить ответ. Практически эдак же, как только детки проделывают логичные догадки. Однако так как ни одна система и не набрала все больше 60%, эти програмки задействуют статистику, дабы выполнять логичные догадки, а уж и не размышляют над вопросцем.

    Команда DeepMind, создавшая AlphaGo, имеет программку ИИ, которая получается за рамки глубочайшего исследования, используя внешнюю систему памяти. Какое воздействие них работа может оказать на производство наиболее гуманоидоподобного ИИ?

    DeepMind останется фаворитом в продвижении глубочайших нейронных сетей (ИИ, созданных для имитации людского головного мозга) вперед. Этот особенный вклад является немаловажным, однако маленьким этапом в сторону рассуждения над тем самым, как только факты связываются в структуру — к примеру, на карте метро. Имеющиеся символические програмки умеют с легкостью делать эту задачку, однако значимое достижение — заслуживающее публикации в Nature — в фолиант, что нейронные паутине учатся исполнению задач по примерам. Это же объемной этап для DeepMind, однако мелкий для населения земли.

    Можно ли применять комбинацию подходов — глубочайшее обучение, машинное зрение и память, к примеру — чтобы создать наиболее комплексный ИИ?

    Это же очень притягательная мысль, и на деле не мало моих исследований, когда я был доктор Вашингтонского вуза, существовало возведено на пользовании Веба как только основы заданных для системы ИИ. Мы сделали способ под заглавием open-information exctraction (извлечение открытой инфы) и проиндексировали пять млрд веб-страничек, извлекая из их предложения и пытаясь сделать на них базе карту познаний для машинки. У той самой машинки существовала сверхъестественная способность поглощать веб-странички, извлекая из их предложения. Однако предложения — это же текст либо рисунки. У нашего людского головного мозга существуют неповторимая способность — которую мы еще пока и не взломали — превращать воздействие в рассуждение и напротив. У нас существуют всепригодная основа заданных, которая формируется и не на базе изображений и текста, а уж базе товаров них обработки, осмысления. Этакому машинки пока что и не научились.

    Вы разговаривайте, что ИИ людского уровня покажется и не ранее чем сквозь 25 лет. Посему конкретно людского уровня и посему конкретно эти временные рамки?

    Настоящее осознание естественного языка, широта и общность людского ума, наша способность сразу играться в го и перебегать дорогу, также готовить сносный омлет — это же обилие является отличительной характеристикой людского ума, а уж все, что мы создали до сего времени, это же разработали узконаправленные програмки, кои умеют выполнять что-то одно максимально ладно. Дабы придти к этаким срокам, я общался с сотрудниками из Ассоциации по улучшению ИИ на тематику тамошнего, когда у нас покажется it система, которая будет мозговитой, как только человек, в наиболее широченном смысле. Никто и не осмелился именовать цифру в 10 лет, 67% заявили, что сквозь 25 лет и даже все больше, а уж 25% сообщили «никогда». Умеют ли они ошибаться? Конечно же. Однако кому вы поверите: тем самым, кто в тематике, либо Голливуду?

    Посему настолько не мало многоуважаемых ученых и инженеров проделывают из ИИ страшилку 21 века?

    Лично мне тяжело рассуждать об фолиант, что движет Стивеном Хокингом либо Элоном Маском, когда они эдак тревожно высказываются о ИИ. Можно представить, что дискуссии об темных прорехах стают скучноватыми сквозь энное время — данная тема развивается медлительно. Единственное, что я жаждил бы отметить, это же когда Билл Гейтс — которого я безрассудно уважаю — говорит об фолиант, что ИИ готов стать злом либо привести к трагическим последствиям, он все время прибавляет «в конечном счете» либо «возможно». И с сиим я согласен. Говоря об грядущей тыще лет, все может случиться. Однако и не думаю, что такова длительная перспектива обязана отвлекать нас от настоящих неурядиц, кои мы встречаем на пути развития ИИ. Вот это же «в конечном счете» либо «возможно» частенько утрачивается по дороге к головам граждан.

    Беря во внимание недочеты ИИ, стоит людям переживать об растущем интересе автопроизводителей к самоуправляемым карам?

    Я и не объемной фанат самоуправляемых каров, у каких нет штурвала либо педали тормоза. С тем самым, что я знаю об компьютерном зрении и искусственном уме, лично мне существовало бы максимально неуютно. Однако я поклонник комбинированной системы — которая сумеет затормозить за вас, ежели вы уснете за штурвалом, к примеру. Человек-водитель и автоматическая система вместе умеют быть безопасней, чем по одиночке. Это же не попросту. Принять новейшие технологии и включить в жизнь и работу граждан — не попросту. Однако я и не верю, что дать всю работу на откуп каров — правильное решение.

    Гугл, Facebook и альтернативные узнаваемые технологические предприятия не так давно запустили партнерство по искусственному уму в интересах граждан и сообщества, дабы обозначить этические и социальные практики для исследовательских работ в области ИИ. Довольно ли развита разработка, дабы этакий подход имел смысл?

    Когда ведущие технологические компании мира собираются совместно и задумываются об этаких вещах, это же максимально ладно. Я думаю, они проделывают это же, боясь, что ИИ может завоевать мир. Однако большинство этих страхов совсем раздута. Даже ежели у нас будут самоуправляемые авто, ни какой-то из них и не решит вдруг взять приступом Белокурый особняк. Опасности, об которых разговаривает Элон Маск, от нас в десятках, ежели и не в сотках лет. Да, настоящие опаски имеются: автоматизация, цифровые технологии и ИИ в целом обменивают картинку рабочих мест. Самоуправляемые авто и грузовики напоследок повысят сохранность миграции, однако а также воздействую на экономику и граждан, действующих в данной сфере. Этика тоже отдельный вопросец.

    Как только убедиться, что програмка ИИ будет яизвестия себя легально и этично?

    Ежели вы банк, и у вас существуют программное обеспечение, обрабатывающее кредиты, вы и не сможете за ним притаиться. Сообщить, что это же изготовил мой персональный компьютер, и не удастся. Компьютерная програмка может изъявить дискриминационное поведение даже ежели и не употребляет расовые либо половые переменчивые. На этот вариант обязаны быть «хранители» в образе ИИ-программ, кои выслеживают и предотвращают этакое поведение посреди остальных ИИ.

    Есть ли ИИ-хранители сейчас?

    Мы призываем общество начать обследовать и производить этакие програмки. Думаю, сначала они будут очень очевидные, однако это же хоть что-то. Мысль тамошнего, что ИИ-хранители умеют противостоять злостному ИИ — образ коего эдак обожают в голливудских фильмах — может определить поддержку посреди граждан.