Разработан самый небезопасный искусственный ум во всем мире: что он умеет?

    Корпорация OpenAI, одним из основоположников которой является Илон Маск, провозгласила об разработке продвинутого искусственного ума для написания уникальных текстов на заданную тематику. Подразумевалось, что он будет переводить тексты на альтернативные языки, отвечать на вопросцы и делать альтернативные полезные задачки, но изучение продемонстрировало, что он возможно позарез небезопасным и употребляться злодеями для массового обмана граждан. В взаимосвязи с сиим, корпорация решила отобразить публике лишь его консервативную версию, а уж оригинал хранить под строжайшим секретом.

    Разработан самый небезопасный искусственный ум во всем мире: что он умеет?

    Компьютерная фотомодель получила заглавие GPT-2 и существовала обучена на базе 8 миллионов веб-страниц. Напечатанные на их тексты ложатся на базу новеньких материалов на заданную человеком тематику: к примеру, искусственный ум может сочинить целое эссе об позитивных сторонах переработки спама либо фентези-рассказ в имидже «Властелина колец». Но, исследователи а также нашли, что система хорошо совладевает с написанием неверных новостей об знаменитостях, катастрофах и даже войнах.

    Сейчас тотальная версия инструмента для генерации текста доступна лишь разрабам и неким создателям MIT Technology Review. По причине тамошнего, что он возможно применен для неконтролируемого сотворения липовых новостей и публикаций в соц паутинах, его существовало решено и не публиковать в открытом доступе и хранить в секрете.

    Примером липовой анонсы поделилось издание ScienceAlert:

    Майли Сайрус существовала поймана за воровство в магазине на Голливудском бульваре

    19-летняя певица существовала снята на фотокамеру, и сторожи вывели ее из магазина. На певице был темный балахон с надписью «Blurred Lines» впереди и «Fashion Police» на спине.

    Почитать текст маленького эссе об минусах переработки спама можно почитать в блоге OpenAI.

    Создатели признают, что языковая фотомодель сейчас и не безупречна: система время от времени допускает повтор энных фрагментов текста, противоестественное переключение тем самым и сбои моделирования мира. К примеру, на одном из шагов тестирования система написала про огнь, пылающий под водой.

    По словам директора по политике Open AI Джека Кларка, спустя несколько лет этакий метод в силах перевоплотиться в опасное орудие массового ввода граждан в заблуждение. Некие критики убеждены, что разработка никакой угрозы и не несет, и корпорация ординарно завлекает к самому себе внимание.

    Свое воззрение о небезопасном искусственном уме пишите в комментах. Обсудить тематику подробнее можно в нашем Telegram-чате.