Baidu сделала программку, могущую клонировать ваш глас за несколько секунд

    Корпорация Baidu, которую часто именуют «китайским Google», опубликовала технический документ, в каком рассказывается об крайних наработках в сфере искусственного ума (ИИ). Система, действующая на основе нейронной паутине, способна клонировать человечий глас на базе анализа очень даже коротенького куска начального материала. Програмка не совсем только очень хорошо имитирует людскую речь, однако к тому же способна заносить в нее свои индивидуальности вроде упора.

    С примерами имитации человечьих голосов нейронной паутиной можно ознакомиться, пройдя по данной гиперссылке.

    Прошлые версии этойданной для нас технологии дозволяли производить имитацию людской речи на базе анализа наиболее длительных образцов. В 2017 году команда инженеров из Baidu Deep Voice предположила технологию, могущую имитировать речь человека на базе 30-минутного начального материала. Конкурентноспособные разработки в данной сфере, в собственную очередь, управлялись несколько скорее. К примеру, програмка VoCo от предприятия Adobe могла имитировать людскую речь на базе всего 20-минутного демонстрационный. А уж технология Lyrebird канадского стартапа показывала еще больше изумительную вероятность – ей же хватало всего минутки необычного семпла людского голоса, дабы сделать его имитацию. Новенькая же технология Baidu пошла гораздо далее – ей же довольно всего только несколько секунд начального материала.

    На первый взор может появиться, что в схожих разработках нет никакой практической полезности – эдак, одно баловство. Однако это же крупное заблуждение. В дальнейшем эти технологии точно отыщут собственную сферу пользования. Представьте самому себе человека, утратившего вероятность твердить и вновь ее обретшего, пусть даже и средством машинки. Либо беспокойного подростка, и не желающего ложиться в кроватка, пока что и не услышит вашего голоса, читающего сказку, в то время как только вы находитесь максимально далековато и у вас ординарно нет физической способности ему же позвонить. Это же только самая малозначительная часть тамошних способностей, кои умеют открыться перед данной технологией.

    Кроме сего, заданная разработка может употребляться, к примеру, для сотворения персонализированных цифровых ассистентов, могущих говорить с вами заправдашним людским, а уж и не компьютерным голосом.

    Однако, как только и у хоть какой альтернативный технологии, тут тоже существуют своя другая сторона. Мы можем столкнуться с ее злоупотреблением и внедрением в и не вконец легальных целях. Портал New Scientist докладывает, что текущая версия програмки сумела сделать один тип голоса, который при проверке системой определения голоса в 95 процентах случаев сумел ее одурачить. А уж люди эдак вообщем оценили качество клонированных образцов на 3,16 балла из 4. Таковыми темпами в какой-то момент мы можем столкнуться со вариантами мошенничества с внедрением искусственного ума, помечают журналисты.

    Во всем мире уже есть програмки, кои с помощью нейронных сетей способны конфигурировать либо даже имитировать людские личика на видео. К примеру, ныне Веб захлестнула волна порнороликов, в каких личика моделей заменяются на личика знаменитостей. Конечно же, все это же смотрится пока что только стандартной шалостью, однако в скором времени, в купе с технологией, могущей с ювелирной точностью имитировать тамошний либо другой глас, мы можем столкнуться с еще один волной «фейковых новостей», в каких броские деятели из разнообразных сфер и политики будут твердить те самый вещи, кои они ни разу бы и не сообщили на деле.

    Почти всех граждан уже ныне можно одурачить, используя, казалось бы, этакие нормальные програмки, как только Photoshop. Представьте самому себе, с какими дилеммами мы можем столкнуться, когда за дело возьмется попавший и не в те самый руки искусственный ум, в млрд раз превышающий способности такого же фотошопа.