Ответственность и безопасность
Изучение перспектив и рисков будущего с более мощным ИИ
Представьте себе будущее, в котором мы регулярно взаимодействуем с рядом продвинутых помощников с искусственным интеллектом (ИИ) — и где миллионы помощников взаимодействуют друг с другом от нашего имени. Этот опыт и взаимодействие вскоре могут стать частью нашей повседневной реальности.
Базовые модели общего назначения открывают путь для все более совершенных помощников искусственного интеллекта. Способные планировать и выполнять широкий спектр действий в соответствии с целями человека, они могут внести огромную ценность в жизнь людей и общества, выступая в качестве творческих партнеров, аналитиков, преподавателей, планировщиков жизни и т. д.
Они также могут привести к новому этапу взаимодействия человека с ИИ. Вот почему так важно заранее подумать о том, как может выглядеть этот мир, и помочь заранее принять ответственные решения и добиться полезных результатов.
Наша новая статья представляет собой первое систематическое рассмотрение этических и социальных вопросов, которые продвинутые помощники ИИ поднимают перед пользователями, разработчиками и обществом, в которое они интегрированы, и дает существенное новое понимание потенциального воздействия этой технологии.
Мы освещаем такие темы, как соответствие ценностей, безопасность и неправильное использование, влияние на экономику, окружающую среду, информационную сферу, доступ и возможности и многое другое.
Это результат одного из наших крупнейших на сегодняшний день проектов этического прогнозирования. Объединив широкий круг экспертов, мы изучили и нанесли на карту новый технический и моральный ландшафт будущего, населенного помощниками ИИ, и охарактеризовали возможности и риски, с которыми может столкнуться общество. Здесь мы изложим некоторые из наших ключевых выводов.
Глубокое влияние на пользователей и общество
Иллюстрация потенциала ИИ-помощников для влияния на исследования, образование, творческие задачи и планирование.
Усовершенствованные ИИ-помощники могут оказать глубокое влияние на пользователей и общество и быть интегрированы в большинство аспектов жизни людей. Например, люди могут попросить их забронировать отпуск, управлять временем в обществе или выполнять другие жизненные задачи. В случае масштабного внедрения ИИ-помощники могут повлиять на то, как люди подходят к работе, образованию, творческим проектам, хобби и социальному взаимодействию.
Со временем ИИ-помощники смогут также влиять на цели, которые преследуют люди, и на их путь личного развития посредством информации и советов, которые дают помощники, а также действий, которые они предпринимают. В конечном счете, это поднимает важные вопросы о том, как люди взаимодействуют с этой технологией и как она может наилучшим образом поддержать их цели и стремления.
Человеческое выравнивание имеет важное значение
Иллюстрация, показывающая, что ИИ-помощники должны понимать человеческие предпочтения и ценности.
Помощники ИИ, скорее всего, будут обладать значительным уровнем автономии в планировании и выполнении последовательностей задач в различных областях. Из-за этого помощники с искусственным интеллектом создают новые проблемы, связанные с безопасностью, выравниванием и неправильным использованием.
Чем больше автономии, тем выше риск несчастных случаев, вызванных нечеткими или неверно истолкованными инструкциями, а также больший риск того, что помощники предпримут действия, не соответствующие ценностям и интересам пользователя.
Более автономные ИИ-помощники могут также способствовать серьезным формам злоупотреблений, таким как распространение дезинформации или участие в кибератаках. Чтобы устранить эти потенциальные риски, мы утверждаем, что необходимо установить ограничения на эту технологию и что ценности продвинутых помощников ИИ должны лучше соответствовать человеческим ценностям и быть совместимыми с более широкими социальными идеалами и стандартами.
Общение на естественном языке
Иллюстрация помощника искусственного интеллекта и человека, общающегося по-человечески.
Способные плавно общаться на естественном языке, письменный текст и голоса продвинутых ИИ-помощников становится трудно отличить от голосов людей.
Эта разработка открывает сложный набор вопросов, касающихся доверия, конфиденциальности, антропоморфизма и соответствующих человеческих отношений с ИИ: как мы можем убедиться, что пользователи могут надежно идентифицировать помощников ИИ и контролировать свое взаимодействие с ними? Что можно сделать, чтобы со временем пользователи не подвергались неправомерному влиянию и не вводились в заблуждение?
Для устранения этих рисков необходимо ввести меры защиты, например, в отношении конфиденциальности. Важно отметить, что отношения людей с помощниками ИИ должны сохранять автономию пользователя, поддерживать его способность процветать и не полагаться на эмоциональную или материальную зависимость.
Сотрудничество и координация для удовлетворения человеческих предпочтений
Иллюстрация того, как взаимодействие между помощниками ИИ и людьми создает различные сетевые эффекты.
Если эта технология станет широко доступной и развернутой в больших масштабах, продвинутым ИИ-помощникам придется взаимодействовать друг с другом, как с пользователями, так и с непользователями. Чтобы избежать проблем с коллективными действиями, эти помощники должны уметь успешно сотрудничать.
Например, тысячи помощников могут одновременно попытаться забронировать одну и ту же услугу для своих пользователей, что может привести к сбою системы. В идеальном сценарии эти помощники ИИ вместо этого будут координировать свои действия от имени пользователей-людей и участвующих поставщиков услуг, чтобы найти точки соприкосновения, которые лучше отвечают предпочтениям и потребностям разных людей.
Учитывая, насколько полезной может стать эта технология, важно также, чтобы никто не был исключен. Помощники ИИ должны быть широко доступны и разработаны с учетом потребностей различных пользователей и непользователей.
Необходимо больше оценок и предусмотрительности
Иллюстрация того, насколько важны оценки на многих уровнях для понимания помощников ИИ.
Помощники ИИ смогут демонстрировать новые возможности и использовать инструменты новыми способами, которые трудно предвидеть, что затрудняет прогнозирование рисков, связанных с их развертыванием. Чтобы помочь управлять такими рисками, нам необходимо использовать методы прогнозирования, основанные на всесторонних тестах и оценках.
Наше предыдущее исследование по оценке социальных и этических рисков, связанных с генеративным искусственным интеллектом, выявило некоторые пробелы в традиционных методах оценки моделей, и мы поощряем гораздо больше исследований в этой области.
Например, комплексные оценки, учитывающие как влияние взаимодействия человека с компьютером, так и более широкое воздействие на общество, могут помочь исследователям понять, как помощники ИИ взаимодействуют с пользователями, непользователями и обществом как часть более широкой сети. В свою очередь, эти идеи могут способствовать более эффективному смягчению последствий и ответственному принятию решений.
Строим будущее, которое мы хотим
Возможно, мы стоим перед новой эрой технологических и социальных преобразований, вдохновленной разработкой продвинутых помощников искусственного интеллекта. Выбор, который мы делаем сегодня как исследователи, разработчики, политики и представители общественности, будет определять, как эта технология будет развиваться и внедряться в обществе.
Мы надеемся, что наша статья послужит трамплином для дальнейшей координации и сотрудничества для коллективного формирования полезных помощников ИИ, которых мы все хотели бы видеть в мире.