Китай намерено запретить «дипфейки» — поддельные видео, сделанные с помощью нейросетей

    В Паутине больше распространяются ролики, типо записанные с ролью знаменитой персоны — однако ей же и не узнаваемые. Поддельные ролики показывают человека в ситуации, которой ни разу и не было, и отличить подделку иногда кажется неосуществимым. Этакие ролики образовываются с ролью нейросетей GAN (генеративно-состязательная паутину) почти из ничего: довольно фото, скачанной в Вебе. Китай решил положить финал распространению этаких «дипфейков» (deepfakes).

    Китай намерено запретить «дипфейки» — поддельные видео, сделанные с помощью нейросетей

    Китай воспрещает поддельные ролики

    Китай планирует законодательно запретить «дипфейки» — и это же первая страна, которая всерьез отнеслась к манипуляциям искусственного ума с видео и разглядывает них как только опасность. В субботу высший законодательный орган Китая предложил провозгласить нелегальными «искажения изображения иного человека либо имитацию голоса с внедрением технологий», говорится в материале, размещенном в национальной газете China Daily.

    Газета цитирует старшего законодателя Шэня Чуньяо, который разговаривает, что «неправильное пользование технологии искусственного ума не совсем только наносит вредит правам человека на изображение, однако а также вредит государственной сохранности и публичным интересам».

    «Глубокие подделки», либо «дипфейки», стают все наиболее утонченными — вместо тамошнего, дабы ординарно подменять человеку личико, кодеры научились подменять целое тело. Это же означает, что хоть какой, обладающий техническим ноу-хау, может конвертировать кого угодно в цифровую куклу.

    Ежели для вас невнятно, чем это же возможно небезопасно, в 2018 году возник поддельный ролик с выступлением бывшего президента США Барака Обамы, где он предотвратил, что «мы вступаем в эру, в какой наши неприятели в состоянии сделать эдак, дабы кто угодно произнес что угодно в хоть какой момент времени». Само видео с сиим заявлением является подделкой, в этом и казус.

    Лишь вот Китай расценил это же предупреждение как только полностью реальное. А уж для вас эта разработка кажется небезопасной? Поведайте в нашем чате в Телеграме.