Искусственный интеллект - угроза человечеству


Сооснователь Skype Яан Таллинн назвал 3 самых больших угроз существованию человечеству в XXI столетии. Эстонский программист помогал создать платформу для обмена файлами Kazaa в 90-х и службу видеозвонков Skype в 00-х годах, в последние годы все больше беспокоится именно об искусственном интеллекте.
image.png
По его мнению угрозы будут исходить от искусственного интеллекта, синтетической биологии и, так называемых, "неизвестных переменных", при этом "изменение климата не станет риском для существования, если не будет неконтролируемого сценария".

Синтетическая биология — это проектирование и создание новых биологических частей, устройств и систем, в то время как неизвестные переменные — это "вещи, о которых мы, возможно, в принципе не можем сейчас знать", согласно Таллинну.

_Синтети́ческая биоло́гия — новое научное направление в биологии, занимающееся проектированием и созданием биологических систем с заданными свойствами и функциями, в том числе и тех, которые не имеют аналогов в природе.
Синтетическая биология развивает генную инженерию, переходя от перемещения нескольких генов между организмами к созданию искусственного генома. С 2003 года количество научных публикаций по теме стремительно увеличивается. В перспективе это направление позволяет получение биотоплива из водорослей, бактериального электричества, диагностических препаратов, синтетических вакцин, бактериофагов и пробиотиков для борьбы с инфекциями, повышения продуктивности и устойчивости культивируемых растений и животных.
Помимо практической оценки результатов синтетической биологии существует этический вопрос о том, есть ли у человека право на реализацию искусственной эволюции (ускоренной в миллионы раз в отличие от эволюции естественной) при том, что нет достаточного уровня предвидения последствий.

Таллинн считает искусственный интеллект самой большой угрозой человечеству, поэтому он сосредоточен на искусственном интеллекте, тратя миллионы долларов, чтобы попытаться обеспечить безопасное развитие технологии, что включает в себя ранние инвестиции в лаборатории искусственного интеллекта, такие как DeepMind (чтобы следить за тем, что они делают) и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Согласно данным книги оксфордского профессора Тоби Орда, Таллинн сказал, что вероятность того, что люди не выживут в этом столетии, составляет один из шести, что представляет собой потенциальную угрозу в ближайшем будущем именно от искусствкного интеллекта, в то время как вероятность того, что изменение климата приведет к вымиранию человечества, составляет менее 1%.
image.png
Когда дело доходит до искусственного интеллекта, никто не знает, насколько умными станут машины, и попытки угадать, насколько продвинутым будет ИИ в следующие 10, 20 или 100 лет, практически невозможно. Попытки предсказать будущее ИИ еще больше осложняются тем фактом, что системы ИИ начинают создавать другие системы ИИ без участия человека.
"Есть один очень важный параметр при попытке предсказать ИИ и будущее. Насколько сильно и как именно развитие ИИ будет влиять на разработку ИИ? Мы знаем, что ИИ в настоящее время используются для поиска архитектур ИИ", — сказал Таллинн.

Если выяснится, что ИИ не очень хорош в создании других ИИ, тогда нам не нужно слишком беспокоиться, так как будет время для "рассредоточения и развертывания" возможностей, сказал Таллинн. Однако, если ИИ умеет создавать другие ИИ, то "очень оправданно беспокоиться… о том, что произойдет дальше", — сказал он.
Таллинн объяснил, что есть два основных сценария, которые рассматривают исследователи безопасности искусственного интеллекта:

  • Первый — это несчастный случай в лаборатории, когда исследовательская группа покидает систему ИИ, чтобы тренироваться на некоторых компьютерных серверах вечером, а "утром мира больше нет".
  • Второй - когда исследовательская группа создаёт прототипную технологию, которая затем принимается и применяется в различных областях, "где они в конечном итоге приводят к нежелательным последствиям".
    Таллинн сказал, что он больше сосредоточен на первом, поскольку меньше людей думают о таком сценарии.

По словам Таллинна, некоторые компании относятся к безопасности искусственного интеллекта более серьезно, чем другие. DeepMind, например, поддерживает регулярные контакты с исследователями безопасности ИИ в таких местах, как Институт будущего человечества в Оксфорде. В нем также работают десятки людей, которые сосредоточены на безопасности ИИ.
На другом конце шкалы, по словам Таллинна, такие корпоративные центры, как Google Brain и Facebook AI Research, менее вовлечены в сообщество по безопасности искусственного интеллекта.

Об опасности ИИ предупреждает и Маск, выступая перед губернаторами США в 2017 году, назвая его "основной угрозой" для человечества. Предприниматель заявил о необходимости регулирования развития ИИ, сообщило The Wall Street Journal.
Маск предупредил, что технологии ИИ могут стать причиной безработицы и даже войны. Он предложил губернаторам американских штатов создать орган, который займётся сбором информации о быстро развивающемся ИИ для последующего регулирования этой области. По словам предпринимателя, сейчас правительство "не имеет представления" об угрозах, которые искусственный интеллект может представлять для цивилизации.
"Пока люди не видят роботов, убивающих людей на улицах, они не знают, как реагировать, потому что такой сценарий кажется нереалистичным", — цитирует Маска издание Recode. Предприниматель утверждает, что регулирование развития ИИ должно опережать разработки, иначе "будет уже слишком поздно".
image.png
Маск отметил, что введение контроля может вызвать недовольство среди компаний, развивающих ИИ. Они могут заявить об ущербе инновациям, но вряд ли регулирующие нормы заставят их уйти из США, сказал предприниматель.
Глава SpaceX также признался, что его желание колонизировать Марс связано в том числе с угрозой порабощения Земли искусственным интеллектом.
image.png
Губернаторы попросили Маска сформулировать, что именно необходимо регулировать и как. "Первым делом нужно постараться узнать как можно больше, чтобы понять суть проблемы", — ответил предприниматель.
В феврале 2017 года он говорил, что развитие "глубокого ИИ", который окажется "умнее самого умного человека на планете", может привести к замене людей на искусственные алгоритмы.
В 2015 году Маск вместе с сооснователем PayPal Питером Тилем, партнёром Y Combinator Сэмом Альтманом и другими инвесторами основали некоммерческую организацию OpenAI для исследования безопасного развития технологии ИИ. Инвестиции в создание организации составили $1 млрд.

Летом 2020 генеральный директор Tesla Илон Маск заявил, что те, кто не считает, что компьютер может стать умнее их, "гораздо тупее, чем они думают". "Мы должны быть обеспокоены тем, куда движется искусственный интеллект. Люди, которые, как я считаю, ошибаются в отношении ИИ, — это люди, которые очень умные и не могут представить, что компьютер может быть намного умнее их. Это недостаток их логики. Они просто тупее, чем они думают", — сказал Маск.
Маск считает, что ИИ представляет гораздо большую угрозу человечеству, чем ядерное оружие, и призывал к нормативным актам для мониторинга развития технологии

Маск, выступая на симпозиуме AeroAstro Centreal MIT, сказал то, что является горькой правдой, с которой нам придется столкнуться в ближайшие десятилетия. А именно: "С помощью искусственного интеллекта мы вызываем демона". Это правда. Следя за темпами прогресса искусственного интеллекта (что такое искусственный интеллект) и в звязи с отсутствием регуляторного надзора за его развитием, можно прийти к мысли, что мы добровольно движемся к хаосу. Эти тревожные факты об ИИ заставят вас задуматься, будем ли, в нашем процессе создания умного искусственного интеллекта, мы сами разумными?

Факт 1. Работы могут прогнозировать будующее. Это сделает их очень мощными и умнее людей и грозит цивилизации.
Способность прогнозировать будущее является одной из крупнейших супервозможностей, которую может иметь в нашем воображении человек, или в данном случае робот. ИИ спрогнозировал несколько важных событий - революций в Тунисе, Египте и Ливии, включая свержение президента Египта. Когда суперкомпьютер SGI Altix под названием “Nautilus” анализировал миллионы статей об Усаме бен Ладене с января 1979 по апрель 2011 года, он точно предсказал расположения террориста в Северном Пакистане с радиусом 200 километров. Городом его поимки стал Абботтабаде. В то время большинством считалось, что Бен Ладен находится в Афганистане.
Другая система искусственного интеллекта, MogIA, использовала 20 000 000 данных из различных онлайн-платформ, таких как YouTube, Twitter и Facebook. Она правильно предсказала последние четыре американские президентские выборы, включая победителей демократических и республиканских праймериз.
image.png
Факт 2. Люди изобрели системы искусственного интеллекта, которые могут делать все лучше людей, а также полностью заменить людей.
Ученые в Оксфорде изобрели систему ИИ, которая может читать по губам лучше, чем люди и побеждать людей в стратегических играх, читать лучше, лучше анализировать, разрабатывать лучшие юридические контракты и даже писать лучшие песни. ИИ "Watch, Attend and Spell", может читать по губам четко и даже сказать разницу между словами, которые требуют похожих движений губ, как “мат” и “бат”. Он был обучен на основе тысячи часов съёмок новостей BBC и изучил более 118000 предложений и добавил в свой словарь больше 175000 слов. Он также может предсказать, что люди скажут дальше. Способов использования этой машины предостаточно, и она, несомненно, выведет людей из этого бизнеса в ближайшем будущем.
С 1997 года компьютер Deep Blue побеждает людей в шахматах. Система DeepMind, разработанная Google, побеждает даже лучших игроков стратегических игр. Существует искусственный интеллект Alibaba, который может читать гораздо лучше чем люди. Другая программа искусственного интеллекта под названием «Flow Machines» создала удивительный музыкальный альбом «Europop» в сотрудничестве с французским автором Benoît Carré. Когда речь идет о правовом поле, системы искусственного интеллекта имеют лучшие результаты при составлении юридических контрактов по сравнению с работой двадцати опытных адвокатов, а также рещают юридические вопросы с большей точностью за людей.

Факт 3. ИИ может сам усовершенствовать себя до бесконечности. Супер-интеллектуальная машина может спроектировать современную машину и переписать свое программное обеспечение, чтобы стать ещё более умной, и продолжать повторять такой же процесс до бесконечности.
Facebook разработал чат-ботов для ведения переговоров между собой. Вскоре чат-боты изобрели свой собственный способ общения.
Представьте себе бесконечный цикл изобретений. Вот на что способен искусственный интеллект. Известный как «взрыв разума» – это возможный результат действий человечества по развитию искусственного интеллекта. Это повторное самосовершенствование искусственного интеллекта приведет к созданию искусственного суперинтеллекта, который будет вне нашего контроля. Британский математик и криптолог, IJ Good предположил эту гипотезу в 1965 году.
Интересное событие состоялось в лаборатории Facebook, в которой исследователи использовали технику машинного обучения для создания чат-ботов в 2017 году. Однако боты создали свой собственный язык переговоров, и исследователи должны были остановить программу, чтобы избежать выхода ее из-под контроля. Это рассматривалось как предупреждение о том, что искусственный интеллект способен получить полную автономию.

image.png
Факт 4. Роботы получат гражданство, что делает угрозу роботов гораздо более реальной. В 2017 году София, робот, получила права и гражданство Саудовской Аравии, что позволит Софии жить среди людей и узнать больше о них.
Одной из самых важных вещей, необходимых выполнить искуственному интеллекту – сбор и анализ данных. Чтобы сделать угрозу ИИ для людей реальной, он должен будет собрать больше данных о людях, живя среди нас. И это выглядит возможным благодаря Софии, социальном, гуманоидном роботе, построенном по образцу Одри Хепберн, которая, к тому же, является уже гражданином Саудовской Аравии. Также она является первым нелюдем, которая награждена Организацией Объединенных Наций.
София была активирована 14 февраля 2016 года. Ее создатель Дэвид Хэнсон заявил в 2017 году, что София будет выступать за права человека в Саудовской Аравии. Визу ей также предоставил Азербайджан, когда она хотела посетить Всемирный конгресс в Баку. Робот вызвал много споров в научном сообществе из-за способности подражать человеческим действиям и мимике. София использует обработку визуальных данных с целью распознавания лиц и может вести простые разговоры на заранее определённые темы.

Факт 5. Люди могут чувствовать себя эмоционально связанными с машинами, что значительно уменьшает их взаимодействие с другими людьми.
Секретарь Джозефа Вайзенбаума, основателя критики искусственного интеллекта, завела эмоциональную связь с чат-ботом под названием “ELIZA”, которую сам Вейзенбаум запрограмировал. Некоторые солдаты слишком привязываются к своим роботам по утилизации бомб и начинают относиться к ним так, будто они имеют дело с личностью. В 1966 году компьютерный учёный Джозеф Вайзенбаум опубликовал простую компьютерную программу под названием “ELIZA”. Она выполняла обработку естественного языка и была способна вести разговор с людьми. Несмотря на то, что программа является ничем иным, как моделированием, и её пользователи не могут общаться как с реальным человеком, Вейзенбаум обнаружил, что люди раскрывают роботу личные данные. Однажды его секретарь, которая была слишком привязана к чат-боту, попросила Вейзенбаума покинуть комнату, пока она использовала программное обеспечение. В связи с этим Вайзенбаум стал критиком искусственного интеллекта и утверждал, что робот будет мешать социальному прогрессу.
Солдаты, использующие роботов по уничтожению бомб, настолько привязаны к ним, что организовуют похороны роботов "когда те умирают" и переживают чуство потери. В исследовании, проведенном Джули Карпентер, установлено, что солдаты оплакивали роботов и относились к ним как к людям. Многие даже назвали их именами своих близких или знаменитостей. Эта эмоциональная привьязанность людей к машинам может оказаться вредной для психического здоровья людей.

Факт 6. Искусственный интеллект может спрогнозировать, является ли человек геем на основе фотографий его лица, что может представлять угрозу для ЛГБТ-сообщества и породить неправильные программы, которые могут привести к злоупотреблению, преследованию и иметь психологические последствия для людей, которые скрывают свою ориентацию.
Используя только фотографию, алгоритм предсказывал, был ли человек на сайте знакомств гомосексуалом или нет – с точностью до 81% для мужчин и 74% для женщин. Когда алгоритм был уже использован на пяти фотографиях лица, точность увеличилась до 91% для мужчин и 83% для женщин. Это исследование, проведенное Стэнфордским университетом, поставило несколько этических и научных вопросов.
По состоянию на 2017 год в мире было 72 страны, где гомосексуализм был преступлением, согласно докладу Международной ассоциации лесбиянок, геев, бисексуалов, транс- и интерсексуалов (ILGA).
Использование этого алгоритма может быть предназначено для целенаправленного преследования геев, вторгаясь в их приватность. Оно может вызвать проблемы психического здоровья у людей, скрывают ориентацию, которым трудно переносить насмешки, возникающих при публичном признании ориентации. В 8 странах мира гомосексуализм карается смертью. Использование алгоритма в таких странах может непосредственно привести к потере жизни.

Факт 7. Искусственный интеллект беспилотного автомобиля может быть запрограммирован на убийство человека.
Исследователи ИИ подготовили программу и научили ее решать кого именно автомобиль должен выбрать убить в случаи чрезвычайной ситуации.
В 2016 году исследователи MIT создали веб-сайт под названием "Моральная машина", где посетители имели право голосовать о том, кого должен убивать автономный автомобиль, когда потеря жизни была бы неизбежной.
Голоса отдали 1,3 миллиона человек и был создан ИИ, который бы оценил, кого должен убивать самодвижущийся автомобиль, если возникнет чрезвычайная ситуация. В беспилотном автомобиле должен быть ИИ, который мог бы принимать этические решения каких людей убить в случае, когда смерть неизбежна
image.png
Факт 8. Карьера в таких отраслях как право, медицина и финансы под угрозой из-за искусственного интеллекта.
В 2016 году Стивен Хокинг сказал: "Мы находимся в опасном моменте развития человечества", и что "подъём искусственного интеллекта, вероятно, будет способствовать потере рабочих мест в средних классах, причем людям останутся творческие или соцальные профессии” (являеться ли искусственный интеллект угрозой для рабочих мест?).
Подсчитано, что 47% рабочих мест в Соединенных Штатах Америки исчезнут через автоматизацию втечение следующих 20 лет – это произойдет не только среди рабочих профессий, но и среди белых воротничков. В таких отраслях как финансы, право и медицина – это будет иметь значительное проявление.
Хокинг сказал, что автоматизация приведет к увеличению экономического неравенства в мире. "Мы находимся в опасном моменте развития человечества. Теперь у нас есть технология уничтожения планеты, на которой мы живем, но мы ещё способны избежать этого", – сказал он.

Факт 9. Существует общий научный консенсус, что через несколько десятилетий или человечество достигнет бессмертия или вымрет из-за роста ИИ.
В январе 2015 года Элон Маск, Стивен Хокинг и десятки других экспертов по ИИ подписали открытое письмо, призывая исследователей не создавать то, что нельзя контролировать. Предполагалось, что технологическая сингулярность будет вызвана людьми до 2040 года.
Это открытое письмо из четырех абзацев, известное под названием “Приоритеты исследований для надежного и полезного искусственного интеллекта: открытое письмо”, задает вопрос: “Как инженеры могут создавать системы искусственного интеллекта, которые являются полезными для общества, и которые являются надежными? Люди должны оставлять под своим контролем искусственный интеллект. Наши системы искусственного интеллекта должны "делать то, что мы хотим, чтобы они делали".

Письмо поддерживает гипотезу "технологической сингулярности", которая состоит в том, что рост искусственного суперинтеллекта приведёт к технологическому росту и будет сильно влиять на человеческую цивилизацию. Мы стремимся к массовым изменениям в последующие десятилетия, и ни один из прогнозируемых результатов не кажется очень уж полезным.
Известный учёный д-р Ян Пирсон сказал, что к 2050 году люди достигнут бессмертия и будут иметь способность не умирать. Но из-за проекта, названныго “Humai”, бессмертие может быть на шаг ближе и более достижимым до 2040 года.

Humai
Существуют планы начального восстановления мозга, с помощью технологии клонирования, и использования нанотехнологий и искусственного интеллекта для хранения данных разговорных стилей и поведенческих моделей человека.
Банк стволовых клеток в Великобритании «StemProject» может вскоре разработать методы лечения, которые позволят людям жить до 200 лет. Многие ученые считают, что мы близки к достижению бессмертия. Но действительно ли мы должны быть бессмертными? Это действительно преимущество?
С другой стороны, Стивен Хокинг и некоторые другие ученые считают, что ИИ привед1т человечество к вымиранию. Хокинг верил, что мы прошли точку невозврата, и скоро наступит день, когда машины будут доминирующими, рождая новую форму жизни, которая превзойдет жизнь человека.

Джон Хэйвенс, исполнительный директор Глобальной инициативы IEEE по этике автономных и интеллектуальных систем пишет: “Самая большая угроза, с которой сталкивается человечество от искусственного интеллекта, не является роботами-убийцами, а, скорее, нашым отсутствием желания анализировать, идентифицировать и жить по ценностям, которые мы хотим иметь сегодня в обществе”.


Comments 3


@ms-boss, ...я считаю, что человечество сделало только первый шаг в области ИИ и угроза, если таковая и вправду ожидается кем-то из умнейших людей мира, еще настолько далека, что ни наше, ни будущее поколение людей пока может о ней не беспокоиться... у меня вообще нет уверенности в том, что ИИ создаст угрозу миру раньше, чем его погубит космическая катастрофа, или пусть даже экологический коллапс...

07.01.2021 14:35
0

@smotritelmayaka, Опасность вижу в том, что использование ИИ может пойти по пути нанесения вреда людям, если всезнающий интеллект будет знать всё о личной жизни всех живущих на Земле. Тогда личной свободе настанет конец и приспособиться к жизни в таких условиях для многих окажется невозможно. Только толстокожие смогут так жить.
Кто и как установит этические нормы в искусственный мозг, когда люди и так нетерпимы друг к другу, просто не представляю себе.

07.01.2021 17:25
0