Пять технологических профессионалов поделились собственными ужасами и опасениями в отношении ИИ

    Всепригодный искусственный ум сумеет предпринять современный мир наиболее симпатичным пространством для жизни, утверждают исследователи. Он сумеет вылечивать нас от рака, в целом сделает лучше здравоохранение по всему миру и высвободит нас от каждодневных рутинных задач, на кои мы тратим огромную частью собственной жизни. Конкретно эти критерии были первостепенной тематикой для разговора посреди инженеров, инвесторов, исследователей и политиков, собравшихся на недавнешней совместной мультиконференции по вопросцам разработки искусственного ума людского уровня.

    Однако были на этом мероприятии и те самый, кто лицезреет в искусственном уме не совсем только пользу, да и потенциальную опасность. Одни выражали свои опаски по поводу увеличения безработицы, так как с приходом всеполноценного ИИ люди начнут терять свои рабочие пространства, освободив них для наиболее гибких, и не подверженных вялости ботов, наделенных сверхразумом; альтернативные намекали об вероятность восстания машин, ежели мы все пустим на самотек. Однако где конкретно нам следует провести черту меж беспочвенным паникерством и настоящей заботой об нашем грядущем?

    Портал Futurism обратился с этаким вопросцем к пяти профессионалам в области разработок искусственного ума, и попробовал узнать, что конкретно в ИИ все больше всего стращает его же авторов.

    Кеннет Стенли, доктор Вуза Центральной Флориды, старший технический директор и научный коллега лаборатории искусственного ума предприятия Uber:

    «Я думаю, что более явные опаски сопряжены с тем самым, что ИИ будет применен в ущерб человеку. И на деле существуют огромное количество сфер, где этакое может произойти. Мы обязаны приложить все усилия для тамошнего, дабы эта неудачная сторона напоследок и не получилась наружу. Очень мудрено определить правильное решение в вопросце об фолиант, как только сохранить ответственность общеустановленных воздействий за ИИ. Этот вопросец многогранен и просит рассмотрения не совсем только с научной позиции. То есть, в поиске его решения будет нужно роль всего сообщества, а уж не совсем только научной среды».

    Об фолиант, как только создать безобидный ИИ:

    «Любая разработка возможно применена как только во благо, эдак и в ущерб. Искусственный ум тут является еще одним примером. Люди все время боролись с тем самым, дабы новейшие технологии и не попали в дрянные руки не использовались в скверных целях. Я считаю, что и в вопросце ИИ мы сможем управится с данной задачей. Нужна верная расстановка акцентов и поиск баланса в пользовании данной технологии. Это же сумеет предостеречь нас от максимально почти всех возможных неурядиц. Наиболее объективные решения, я, наверное, предложить и не смогу. Единственное, чего хотелось бы сообщить: мы обязаны осознать и принять ответственность за то влияние, которое ИИ может оказать на все про все общество».

    Ираклий Беридзе, глава Центра искусственного ума и робототехники при Межрегиональном научно-исследовательском колледже ООН по вопросцам преступности и правосудия (ЮНИКРИ):

    «Я думаю, что самая страшная вещь вокруг ИИ сопряжена с темпами разработки – с тем самым, как только резво он будет сотворен и как только резво мы сможем к нему приспособиться. Ежели этот баланс будет нарушен, мы можем столкнуться с проблемами».

    Об терроризме, преступности и остальных родниках риска:

    «С моей точки зрения, главная угрозу может заключаться в фолиант, что ИИ сумеют пользоваться преступные структуры и заглавные террористические организации, ориентированные на дестабилизацию мирового порядка. Кибертерроризм и дроны, снаряженные ракетами и бомбами – это же уже действительность. В дальнейшем сюда умеют добавиться боты, снаряженные системами ИИ. Это же готов стать нешуточной неувязкой.

    Альтернативный объемной риск массового применения ИИ возможно сопряжен с возможной потерей рабочих мест людьми. Ежели эти утраты будут массовыми, а уж благоприятного решения у нас и не будет, то это же станет максимально небезопасной проблемой».

    «Но это же только негативная сторона медали этойданной для нас технологии. Я убежден в фолиант, что в собственной базе ИИ и не является орудием. Это же, быстрее, инструмент. Максимально массивный инструмент. И этот массивный инструмент возможно применен как только в не плохих, эдак и нехороших целях. Наша задачка состоит в том, дабы осознать и минимизировать опасности, связанные с его внедрением, также в фолиант, дабы он употреблялся исключительно в не плохих целях. Мы обязаны сосредоточится на фолиант, дабы извлечь максимум позитивной выгоды от пользования этойданной для нас технологии».

    Джон Лэнгфорд, первостепенный научный коллега компании Microsoft:

    «Я думаю, что основную угрозу будут представлять дроны. Автоматические дроны умеют предстать реальной неувязкой. Текущий уровень вычислительной мощности автономного вооружения недостаточно высок для исполнения каких-либо экстраординарных задач. Но я полностью могу самому себе предположить, как только сквозь 5-10 лет на борту автономного вооружения будут проводиться расчеты на уровне суперкомпьютеров. Дроны применяются при боевых воздействиях уже сейчас, однако они как и раньше справляются человеком. Сквозь энное время оператор-человек уже и не пригодиться. Машинки предстанут довольно эффективны для самостоятельного исполнения намеченных целей. Конкретно это же меня беспокоит».

    Хава Зигельман, программный менеджер микросистемых технологий DARPA:

    «Любая разработка возможно применена в ущерб. Я думаю, что все зависит об тамошнего, в чьи руки эта разработка попадет. Я и не думаю, что есть дрянные технологии, я думаю, что есть дрянные люди. Все сводится к тамошнему, кто имеет доступ к сиим технологиям и как только конкретно он них использует».

    Томас Миколов, научный коллега лаборатории Facebook AI:

    «Если что-то завлекает энтузиазм и инвестиции, вокруг сего все время присутствуют люди, кои и не против сиим злоупотребить. Меня расстраивает тамошний факт, что некие люди пробуют реализовать ИИ и ярко обрисовывают то, какие трудности этот ИИ сумеет решить. Хотя по факту никакого ИИ гораздо и не сотворено.

    Все эти стартапы-однодневки обещают золотые скалы и приводят примеры типо работы ИИ, хотя на деле, нам отображают только улучшенные либо оптимизированные технологии заправдашнего. Причем почти всегда о усовершенствовании либо поисковой оптимизации этих технологий не достаточно кто думал. Так как они никчемны. Взять хотя бы тамошних же чат-ботов, которых выдают за искусственный ум. И вот, потратив десятки тыщ часов на оптимизацию исполнения одной единственной задачки, эти стартапы приходят к нам и рассказывают об фолиант, что достигнули чего-то, чего же и не могли добиться альтернативные. Однако это курьезно.

    Ежели твердить откровенно, большая часть крайних типо технологических прорывов схожих организаций, наименования которых лично мне бы и не хотелось именовать, никому прежде и не были увлекательны, и не поэтому, что никто все больше и не мог них совершить, а уж ординарно поэтому, что эти технологии и не генерируют никакой денежной выручки. Они совсем никчемны. Это же поближе к шарлатанству. В особенности в тамошних вариантах, когда ИИ рассматривается как только инструмент, позволяющий очень улучшить процесс решения одной единственной и узконаправленной задачки. Его нереально масштабировать ни под что-либо альтернативное, за исключением как только на исполнение самых простейших задач.

    Причем хоть какой, кто как-то начнет критиковать аналогичные системы здесь же сталкивается с дилеммами, кои будут идти вразрез со сахарными заявлениями этаких компаний».

    Согласны ли вы с воззрениями профессионалов? Поделитесь собственными идеями в нашем официальном Telegram-чате Hi-News.ru.