» » Человечество и искусственный интеллект - кто-нибудь осознаёт опасности и риски?

Человечество и искусственный интеллект - кто-нибудь осознаёт опасности и риски?

04.11.2017 (Аналитик Pro) в Наука: мировоззрение, 386 просмотров, 1 комментарий. Ссылки. Распечатать

Человечество и искусственный интеллектВ мае 2017 года скончался полковник Станислав Петров. Этот офицер в 1983 году своими профессиональными действиями предотвратил ядерную войну. Во время его дежурства пришел сигнал со спутников наблюдения о старте нескольких ракет с территории США. Ядерная атака. Петров должен был принять роковое решение. В этой критической ситуации он мгновенно перепроверил информацию по другим источникам и принял решение, что это – ложная тревога. Возможный ответный ядерный удар не состоялся. Подобные ситуации бывали и в американских ядерных силах. И всякий раз, к нашему счастью, люди принимали верное решение.

А вот искусственный интеллект – какое он принял бы решение в такой ситуации? Человек ведь существо моральное. Станислав Петров осознавал цену своего решения с нравственных позиций. Ученые смогут впихнуть в искусственный интеллект мораль? Это первый вопрос. А второй: если этот искусственный интеллект будет сам развиваться, это саморазвивающаяся система, он, может быть, себе свою новую мораль придумает. И совсем не такую, как наша. И в этой его моральной системе, мы, люди, не окажемся лишними?

Когда была осознана колоссальная разрушительная мощь ядерного оружия, сразу заговорили о невозможности его применения. Цена будет слишком велика. А сейчас, когда человечество, возможно, стоит на пороге создания искусственного интеллекта, кто-нибудь обсуждает серьезно опасности и риски? Почти все пребывают в состоянии эйфории: какие новые возможности перед нами открываются! Может, и открываются, а может, и закрываются.

Еще совсем недавно это казалось фантастикой, и вот уже безнадежно устарело – бросать компьютерный чип в кипящую сталь в попытке предотвратить восстание машин теперь бесполезно, микропроцессоры куда более мощные, чем у Терминатора образца 1991 года. Сейчас повсюду искусственный разум стремится к человеческому, а люди, кажется, приняли грядущее уничтожение как нечто неизбежное.

Видео телеканала CNBC:

– Ты хочешь уничтожить людей? Пожалуйста, скажи "нет!"

– Ок, я уничтожу людей, – отвечает робот София.

У современного Терминатора черты лица актрисы Одри Хэпберн – по крайней мере, так говорят разработчики – робот София способна поддержать разговор, повторяет мимику человека, но когда шутит про уничтожение людей, почему-то не улыбается.

На этой неделе в торжественной обстановке София получила гражданство Саудовской Аравии – страны, которая вкладывает сотни миллионов долларов в развитие технологии искусственного интеллекта. Это передовое направление, без которого будущее уже не представляет себе не только крупный бизнес, но и правительства многих государств. Какие бы риски это будущее в себе ни таило. Потеря контроля над цифровым разумом лишь один из вариантов. Угроза может показаться не вполне конкретной – но футурологи готовы привести примеры.

"Два искусственных военных интеллекта в двух странах могут вступить в войну, которая продлится несколько миллисекунд и люди не успеют заметить, как они все будут уничтожены", – говорит футуролог Алексей Турчин.

Фантастика? Возможно, но локальная война двух компьютерных трейдеров уже однажды обрушила биржевые индексы – просто потому что боты друг за другом вдруг решили продавать акции. В результате этой виртуальной битвы совершенно конкретные люди потеряли много настоящих денег. "Алгоритмы, которые были сделаны для того, чтобы приносить прибыль всем участникам, вдруг начали работать так, что они начали приносить убытки всем участникам, потому что были не предусмотрены последствия работы. А очень трудно предусмотреть все последствия работы искусственного интеллекта", – поясняет Алексей Турчин.

Программисты Facebook тоже не предполагали, что сетевые чат-боты, или попросту разговорные агенты, пройдут тест на коммуникацию с таким результатом: диалог на английском превратился в бессмысленный набор слов, а то и букв, но это для человека – цифровому разуму язык людей показался неудобным способом договориться. Другими словами – машина может лучше. И это еще одна угроза. "Первое, что произойдет, это то, что очень многие люди потеряют работу из-за автоматизации и роботизации производства. Так, по некоторым оценкам, в США до 2030 года из-за этого могут быть ликвидированы около 47% рабочих мест", – говорит профессор теоретической философии в университете имени Иоганна Гутенберга Томас Метцингер.

Казалось бы, все это далеко и даже не очень скоро – но и в России искусственный интеллект уже лишил кое-кого работы – виртуальная помощница Инна заменила собой справочную службу Казанского Иннополиса. "Мы автоматизировали на 100% все рутинные обращения и вот с 19 июня этого года Инна уже обработала чуть больше 15 тысяч обращений, на которые раньше отвечал живой человек, а теперь этот механизм отвечает автоматически", – рассказывает директор по маркетинговым коммуникациям города Иннополис Артем Фатхуллин. Инна, конечно специалист в узкой области – ей, как и любой другой программе пока очень далеко до человека – но ключевое слово именно "пока". "100 лучших экспертов мира в области искусственного интеллекта полагают, что между 2070 и 2100 годами, а возможно, и в 2050 году появится искусственный сверхразум, который будет действовать как минимум на уровне человека, а то и недосягаемо превосходить его. Вопрос состоит в том, что если саморазвивающийся искусственный интеллект когда-либо превзойдет когнитивную силу человека, то как нам сделать так, чтобы он оставался мирным и чтобы его цели совпадали с нашими", – говорит Томас Метцингер.

Ответа на этот вопрос на самом деле до сих пор не существует – человечество тратит миллиарды на развитие искусственного разума, как будто нарочно приближая тот день, кода он поймет, что создатели ему больше не нужны. "Я часто использую такую аналогию – когда мы, например, расширяем дом, мы не советуемся с червяками, жуками и разными насекомыми на заднем дворе, перед тем, как начать стройку. Они же настолько ниже нас, что мы просто не обращаем на них внимания. Вот какой может быть разница между искусственным интеллектом будущего и человеком", – отмечает глава футурологического института Futurizon (Великобритания) Ян Пирсон.

Кто-то, конечно, может посоветовать футурологам надеть шапочку из фольги и спрятаться под стол – но главу компании Tesla Илона Маска точно не заподозришь в технофобии – с его-то проектами SpaceX или Hyperloop и серьезными инвестициями в создание нейросетей. Но именно он уже не раз предупреждал об опасности. "Вы знаете, что у меня есть доступ к самым последним разработкам в области искусственного интеллекта. И я думаю, что людям действительно следует озаботиться этим. Может показаться, что я поднимаю панику, но пока человечество не увидит, как роботы идут по улицам и убивают людей, они не будут знать, как реагировать. Ведь это выглядит таким нереальным, но я уверен, что нам действительно стоит волноваться насчет искусственного интеллекта", – заявил Илон Маск.

Маск предлагает регулировать развитие технологии на государственном уровне – и в то же время своего рода аппаратный апгрейд мозга – с помощью нейросетей нового поколения, выходит, чтобы не отстать от машин будущего, человеку самому придется стать машиной.

Искусственный интеллект развивается куда быстрее, чем могли предположить его создатели – нас окружают миллионы устройств, которые по вычислительным способностям значительно куда умнее человека. Теперь представьте следующий этап, когда мозг станет частью этой сети: вроде возможности открываются безграничные – не нужно учить языки, вообще любые накопленные человечеством знания легко скачать прямо в голову, но с другой стороны человек фактически становится флэшкой. Какая уж тут индивидуальность или несвойственная машинам способность мыслить нестандартно! Да и вообще любую флешку можно отформатировать...

Сейчас нам только кажется, что мы способны обрабатывать все новые потоки информации из нескольких источников сразу – в реальности человек просто теряет элементарные способности, доверившись технологиям. Машины и так уже многое делают за нас – автомобили сами паркуются, поисковики в интернете готовы ответить на любой вопрос, виртуальные помощники сами звонят нашим друзьям. Лень как двигатель прогресса. Выходит, "двое из ларца" здорово поумнели с тех пор, как человечество открыло ящик Пандоры.

– Вы что это, и конфеты за меня есть будете?

– Ага!

Автор публикации: Кирилл Брайнин, Новости Первого канала

3.8
Отзывы: 6
Похожие публикации по теме:
Ядерный вопрос. Начало конца: путь к ядерной Третьей мировой войне Из серии прогнозов на XXI век: 50 лет тому вперед. Когда мы оглядываемся в прошлое сегодня, 8 августа 2063 г., в День принятия решения по ядерному разоружению, по-прежнему остается непонятным, как в…
13 фактов, не имеющих научного объяснения Дальний космос – галактики «разбегаются» быстрее, чем это предусмотрено теорией. Фото NASA • 1. Эффект плацебо • 2. Проблема горизонта • 3. Ультра-энергетические космические лучи • 4. Феномен…
С помощью Интернета можно развязать ядерную войну Террористы могут в скором времени использовать Интернет для осуществления ядерных ударов по каким-либо странам. Об этом говорится в новом исследовании Международной комиссии по ядерному…
Объединимся, чтобы выжить! Если мы говорим о свободе выбора, то должны понять, что нет ничего хуже для человека, чем установленные обществом морально-этические нормы, которые давят на него, не давая свободно выражать отношение…
Совсем другой Жириновский! Беседа Михаэля Лайтмана с Владимиром Жириновским (заместитель Председателя Государственной думы России, Председатель ЛДПР, член Парламентской ассамблеи Совета Европы). М. Лайтман: Я очень рад нашей…
Пипл хавает: должны ли СМИ скармливать народу разную фигню для потребления? Часть 46. Глобальный мир: уроки о новой жизни человечества. Средства связи – это инструмент воспитания, это не просто информация. Просто информации вообще не существует. Невозможно человеку сказать…
Уважаемый гость, вы зашли на сайт как незарегистрированный посетитель. Чтобы пользоваться всеми возможностями: вносить понравившиеся публикации в свое избранное, узнавать об обновлениях, – рекомендуем зарегистрироваться, либо войти на сайт под своим именем.
Добавить комментарий на сайт
1 комментарий на сайте
Внимание! Для того, чтобы цитировать весь комментарий – нажмите "Цитата", ничего не выделяя. Чтобы цитировать часть комментария – прежде выделите ее, затем нажмите "Цитата".
Олег Ситнев (05.11.2017, 20:05) Offline
"Мы достигли точки невозврата" - Стивен Хокинг боится, что искусственный интеллект заменит людей. Британский физик с мировым именем Стивен Хокинг заявил, что искусственный интеллект не только может превзойти людей, но и заменить человечество как вид.



ИИ (искусственный интеллект) уже совсем скоро достигнет уровня, когда станет "новой формой жизни, которая будет превосходить людей", - цитирует Daily Mail интервью ученого. Хокинг особо подчеркнул, что искусственный интеллект сможет заменить человечество как вид разумной жизни, проживающей на Земле. "Я боюсь, что ИИ может вообще заменить людей. Если люди сейчас разрабатывают компьютерные вирусы, то кто-то будет разрабатывать ИИ, который сам не только улучшает, но и реплицирует себя. Это будет новая форма жизни, которая превосходит людей", - заявил ученый.

Хокинг также призвал людей проявлять больше интереса к науке, утверждая, что отсутствие такого интереса "будет иметь серьезные последствия" для человечества. Но главное, чем должно заняться человечества, как убежден ученый, это колонизация космоса. "Я считаю, что мы достигли точки невозврата. Наша Земля становится слишком маленькой для нас, в глобальной проекции население растет с угрожающей скоростью, и при этом над нами постоянно висит опасность саморазрушения".

Профессор Хокинг уже не первый раз высказывает опасения по поводу искусственного интеллекта. Так, в октябре прошлого года он заявлял, что ИИ может развить собственную волю, которая противоречит интересам человечества. В частности, опасность составляет развитие автономного оружия и наделение этого оружия искусственным интеллектом. Кстати, что с аналогичными опасениями выступал и Илон Маск, и ряд других теоретиков и практиков.
Информация
    Посетители, находящиеся в группе Гость, не могут оставлять комментарии к данной публикации.