Планирование гонки ИИ для обеспечения безопасного развития ОИИ | от GoodAI | Блог Института дорожной карты ИИ | GPTMain News

Хороший AI
Блог Института дорожной карты ИИ

Эта статья сопровождает наглядную дорожную карту, которую вы можете посмотреть и скачать здесь.

Дорожная карта — это полезный инструмент, который позволяет нам заглянуть в будущее, предсказать различные возможные пути и определить области, которые могут представлять возможности или проблемы. Цель состоит в том, чтобы визуализировать различные сценарии, чтобы подготовиться и избежать сценариев, которые могут привести к нежелательному будущему или, что еще хуже, к катастрофе. Это также упражнение для визуализации желаемого будущего и поиска оптимального пути к его достижению.

В этой дорожной карте представлены три гипотетических сценария разработки системы общего искусственного интеллекта (AGI) с точки зрения воображаемой компании (C1). Основное внимание уделяется гонке ИИ, где заинтересованные стороны стремятся достичь мощного ИИ и его влияния на безопасность. Он отображает возможные решения, принимаемые ключевыми игроками в различных «положениях дел», которые приводят к различным результатам. Цветовое кодирование светофора используется для визуализации потенциальных результатов: зеленый показывает положительные результаты, красный — отрицательные, а оранжевый — промежуточные.

Цель этой дорожной карты — представить зрителю не все возможные сценарии, а несколько ярких примеров. Дорожная карта в первую очередь сосредоточена на ОИИ, который, предположительно, будет иметь преобразующий потенциал и сможет кардинально повлиять на общество. [1].

Эта дорожная карта намеренно затрагивает некоторые экстремальные сценарии, чтобы спровоцировать дискуссию о роли ОИИ в изменении парадигмы.

Предполагая, что потенциал ОИИ настолько велик, и быть первым, кто его создаст, может дать беспрецедентное преимущество [2] [3], существует вероятность того, что ОИИ может быть развернут до того, как он будет должным образом протестирован. В этом сценарии C1 создает AGI, в то время как другие все еще спешат завершить технологию. Это может привести к тому, что C1 забеспокоится, развернет AGI до того, как будет обеспечена безопасность, и потеряет контроль над ним.

Что произойдет дальше в этом сценарии, будет зависеть от характера созданного ОИИ. Если рекурсивное самосовершенствование ОИИ будет продолжаться слишком быстро, чтобы разработчики могли его догнать, будущее будет не в руках человечества. В этом случае, в зависимости от целей и ценностей ОИИ, это может привести к сценарию конца света или своего рода сосуществованию, когда одним людям удается слиться с ОИИ и пожинать его плоды, а другим нет.

Однако, если скорость самосовершенствования ОИИ не является экспоненциальной, может быть достаточно времени для маневра, чтобы снова взять его под контроль. ОИИ может начать разрушать социально-экономические структуры [4], подталкивая затронутые группы к действию. Это может привести к созданию своего рода консорциума безопасности AGI, в который входит C1, который мог бы заняться разработкой и внедрением мер безопасности, чтобы поставить технологию под контроль. Таким образом, этот консорциум будет создан по необходимости и, вероятно, останется вместе, чтобы гарантировать, что AGI останется полезным в будущем. Когда ОИИ находится под контролем, это теоретически может привести к сценарию, в котором мощный и безопасный ОИИ может быть (вос)создан прозрачно.

Мощный и безопасный AGI

Мощный и безопасный результат ОИИ может быть достигнут как в сценарии 1, так и в сценарии 2 (см. диаграмму). Вполне возможно, что на рынок выйдет какой-то прототип мощного ОИИ, и хотя он не будет представлять экзистенциальной угрозы, он, вероятно, вызовет серьезные социальные потрясения и автоматизацию большинства рабочих мест. Это может привести к необходимости создания формы «всеобщего базового дохода» или альтернативной модели, позволяющей распределять доходы и выгоды от ОГИ среди населения. Например, широкая общественность могла бы претендовать на свою долю в новой «экономике ИИ» с помощью механизмов, предоставляемых инклюзивным альянсом (см. ниже). Обратите внимание, что роль правительств как поставщиков программ государственной поддержки может значительно снизиться, если правительства не будут иметь доступ к ОИИ наряду с влиятельными экономическими игроками. Традиционных рычагов, которые правительства используют для получения ресурсов за счет налогообложения, может оказаться недостаточно в новой экономике ИИ.

В этом сценарии ОИИ рассматривается как мощный инструмент, который даст его создателю большое экономическое и социальное преимущество. Здесь он рассматривается в первую очередь (как указано выше) не как экзистенциальный риск, а как вероятная причина многих сбоев и смен власти. Разработчики держат большинство исследований в секрете, и любые альянсы не вырастают из поверхностных пиар-коалиций, однако большая работа проводится над безопасностью ИИ. Два возможных пути, по которому может пойти этот сценарий, — это совместный подход к разработке или скрытый подход.

Совместный подход

Поскольку различные участники призывают к сотрудничеству в разработке ОИИ, вполне вероятно, что возникнет своего рода консорциум. Это может начаться как разовое мероприятие по укреплению доверия между несколькими игроками, сотрудничающими в вопросах безопасности с «низкими ставками», но может перерасти в более крупную международную структуру совместной разработки AGI. В настоящее время путь к позитивному сценарию прокладывается заметными инициативами, включая Партнерство по ИИ. [5]IEEE работает над этически ориентированным дизайном [6]Институт Будущего Жизни [7] и многое другое. В этой дорожной карте в качестве примера используется гипотетическая организация глобального масштаба, члены которой сотрудничают в области алгоритмов и безопасности (названная «Объединенный ИИ» по аналогии с Организацией Объединенных Наций). Это, скорее всего, приведет к описанному выше состоянию «Мощный и безопасный AGI», поскольку все доступные глобальные таланты будут посвящены и могут внести свой вклад в функции безопасности и тестирование.

Скрытый подход

Может случиться и обратное: разработчики могут работать скрытно, продолжая выполнять работу по обеспечению безопасности внутри компании, но доверие между организациями будет недостаточно сильным, чтобы способствовать совместным усилиям. Это может пойти разными путями. Дорожная карта фокусируется на том, что может произойти, если несколько AGI с разными владельцами появятся примерно в одно и то же время или если C1 будет иметь монополию на технологию.

Несколько AGI
Несколько ОИИ могут появиться примерно в одно и то же время. Это может быть связано с «утечкой» в компании, сближением других компаний в то же время или с добровольной передачей AGI ее создателями.

Этот путь также имеет различные возможности в зависимости от целей создателей. Мы могли бы дойти до «войны ИИ», в которой разные участники сражаются за абсолютный контроль. Однако мы можем оказаться в ситуации стабильности, аналогичной миру после Второй мировой войны, когда развивается и начинает функционировать отдельная экономика ОИИ с множеством акторов. Это может привести к возникновению двух параллельных миров людей, имеющих доступ к ОИИ, и тех, у кого его нет, или даже тех, кто сливается с ОИИ, создавая общество «богов» ОИИ. Это снова может привести к большему неравенству или экономике изобилия, в зависимости от мотивации «богов» ОИИ и от того, решат ли они поделиться плодами ОИИ с остальным человечеством.

Монополия АГИ
Если C1 удастся удержать AGI в своих стенах с помощью командной культуры и мер безопасности, это может пойти несколькими путями. Если бы у C1 были плохие намерения, он мог бы использовать AGI для завоевания мира, что было бы похоже на «войну AGI» (см. выше). Однако у конкурентов вряд ли есть шансы против такой мощной технологии. Это также может привести к двум другим конечным состояниям, указанным выше: если C1 решит поделиться плодами технологии с человечеством, мы можем увидеть экономику изобилия, а если нет, то общество, вероятно, будет очень неравноправным. Тем не менее, есть еще одна изученная возможность, а именно, если C1 не будет интересоваться этим миром и продолжит действовать скрытно после создания AGI. С потенциалом технологии C1 может покинуть Землю и начать исследовать вселенную, и никто этого не заметит.

Этот сценарий предполагает постепенный переход от узкого ИИ к ОИИ. По пути создается инфраструктура, а переключение передач происходит медленнее и более контролируемо. Мы уже видим, как узкий ИИ занимает нашу повседневную жизнь в экономике и обществе, а ручная работа становится все более автоматизированной. [8] [9]. Этот прогресс может привести к созданию узкого консорциума по безопасности ИИ, который сосредоточится на узких приложениях ИИ. Эта модель узкой безопасности/регулирования ИИ может быть использована в качестве пространства для укрепления доверия между игроками, которые продолжат развивать ОИИ. Однако субъекты, которые занимаются исключительно ОИИ и предпочитают не разрабатывать узкие технологии ИИ, могут быть исключены из этой схемы.

Поскольку рабочие места становятся все более автоматизированными, правительствам необходимо будет выделять больше ресурсов (посредством налогообложения или других средств) для поддержки пострадавших людей. Это постепенное увеличение поддержки может привести к всеобщему базовому доходу или аналогичной модели (как указано выше). В конце концов будет достигнут ОИИ, и снова конечные состояния будут зависеть от мотивации создателя.

Хотя эта дорожная карта не является исчерпывающим описанием всех возможных сценариев, полезно продемонстрировать некоторые возможности и дать нам представление о том, на чем мы должны сосредоточиться сейчас.

Сотрудничество

Глядя на дорожную карту, кажется очевидным, что одним из ключей к предотвращению сценария конца света или войны ОИИ является сотрудничество между ключевыми игроками и создание своего рода консорциума по безопасности ИИ или даже международной структуры совместной разработки ИИ с более сильными связи между акторами («Объединенный ИИ»). В первом сценарии мы видели создание консорциума по необходимости после того, как C1 потерял контроль над технологией. Однако в двух других сценариях мы видим примеры того, как консорциум безопасности может помочь контролировать разработку и избежать нежелательных сценариев. Консорциум, направленный на обеспечение безопасности, а также на благополучие людей, также может помочь избежать значительного неравенства в будущем и способствовать развитию экономики изобилия. Тем не менее определение правильных стимулов для сотрудничества в каждый момент времени остается одной из самых больших проблем.

Универсальный базовый доход, универсальный базовый дивиденд и т. п.

Еще одна тема, которая кажется неизбежной в экономике ИИ или ОИИ, — это переход к «обществу безработных», где машины выполняют большую часть работы. Состояние, когда из-за автоматизации преобладающая часть населения мира теряет работу, необходимо планировать. Является ли это переходом к универсальному базовому доходу, универсальному базовому дивиденду [10] распределяется из фонда социального благосостояния, который будет инвестировать в акции и облигации, или аналогичная модель, которая обеспечит компенсацию социальных изменений, она должна быть постепенной, чтобы избежать крупномасштабных сбоев и хаоса. Вышеупомянутый консорциум мог бы также сосредоточиться на переходе общества к этой новой системе. Прочтите этот пост, если хотите узнать больше об ИИ и будущем работы.

Решение гонки ИИ

Дорожная карта демонстрирует последствия технологической гонки навстречу ИИ, и, хотя известно, что конкуренция способствует инновациям, мы должны осознавать риски, связанные с гонкой, и искать способы их избежать (например, путем укрепления доверия и сотрудничества). Тема гонки ИИ была расширена в General AI Challenge, созданной GoodAI, где участники с разным опытом со всего мира представили свои предложения по снижению рисков. Предложения различались по определению расы, а также по методам смягчения ловушек. Они включали методы саморегулирования для организаций, международную координацию, рамки управления рисками и многое другое. Вы можете найти шесть призовых работ на странице https://www.general-ai-challenge.org/ai-race. Мы призываем читателей давать нам отзывы и развивать идеи, разработанные в задаче.

[1] Армстронг, С., Бостром, Н., и Шульман, К. (2016). Гонки к пропасти: модель развития искусственного интеллекта. ИИ И ОБЩЕСТВО, 31(2), 201–206.

[2] Аллен Г. и Чан Т. (2017). Искусственный интеллект и национальная безопасность, Технический отчет. Гарвардская школа Кеннеди, Гарвардский университет, Бостон, Массачусетс.

[3] Бостром, Н. 2017. Стратегические последствия открытости в развитии ИИ.
Глобальная политика 8: 135–148.

[4] Брандейдж М., Шахар А., Кларк Дж., Аллен Г., Флинн К., Фаркуар С., Крутоф Р. и Брайсон Дж. (2018). Злонамеренное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий.

[5] Партнерство по ИИ. (2016). Лидеры отрасли устанавливают партнерские отношения в области передового опыта искусственного интеллекта

[6] IEEE. (2017). IEEE выпускает Ethically Aligned Design, Version 2, чтобы продемонстрировать «Этику в действии» для разработки автономных и интеллектуальных систем (A/IS)

[7] Тегмарк, М. (2014). Будущее технологий: преимущества и риски

[8] Хаврда, М. и Миллершип, В. (2018). ИИ и работа — смена парадигмы? Блог GoodAI Medium.

[9] Маника Дж., Лунд С., Чуи М., Бугин Дж., Ветцель Дж., Батра П., Ко Р. и Сангви С.
(2017). Рабочие места потеряны, рабочие места получены: что будущее работы будет означать для рабочих мест, навыков и заработной платы. Отчет Глобального института McKinsey.

[10] Брюниг, М. (2017). Фонд социального обеспечения Америки. Проект народной политики.

Последние статьи

Related articles

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

hentai lou nicehentai.com ahegeo hentai pron v bigztube.mobi kannada school girl sex videos sxsi com pornoko.net indian porn xnxx.com سكس.جماعي pornigh.com سكس لوسي bangali sex in kompoz2.com ganapa kannada movie songs
سكس مع المعلمة matureporni.com سكس كس مفتوح desi clip.com foxporns.info girls sexy pictures хентай манга hentaitale.net hentai zombie girl little sister doujin justhentaiporn.com kasumi tendo hentai افلام جيانا مايكلز gratisfucktube.com foto sex
desi gay porn vedio momyporn.mobi nepali x video مدام شرموطه freetube18x.com ايناس الدغيدي سكس tony tony chopper hentai hentaimangaz.com naruto new hentai manga الكس والزبر pornarabic.net احلى بزاز ميلفاية arabgrid.net فلم\سكس