Группа MIT выпускает официальные документы по управлению ИИ | Новости Массачусетского технологического института | GPTMain News

Предоставляя ресурс для политиков США, комитет руководителей и ученых Массачусетского технологического института выпустил набор аналитических записок, в которых излагаются основы управления искусственным интеллектом. Этот подход включает в себя расширение существующих подходов к регулированию и ответственности в поисках практического способа надзора за ИИ.

Цель документов — помочь укрепить лидерство США в области искусственного интеллекта в целом, одновременно ограничивая вред, который может нанести новые технологии, и поощряя исследование того, как внедрение ИИ может быть полезно обществу.

В основном политическом документе «Основы управления искусственным интеллектом в США: создание безопасного и процветающего сектора искусственного интеллекта» предполагается, что инструменты искусственного интеллекта часто могут регулироваться существующими правительственными организациями США, которые уже контролируют соответствующие области. Рекомендации также подчеркивают важность определения цели инструментов ИИ, что позволит регулировать правила, соответствующие этим приложениям.

«Как страна, мы уже регулируем множество вещей с относительно высоким риском и обеспечиваем там управление», — говорит Дэн Хаттенлохер, декан Шварцмановского компьютерного колледжа Массачусетского технологического института, который помогал управлять проектом, который стал результатом работы рекламного агентства. специальный комитет MIT. «Мы не говорим, что этого достаточно, но давайте начнем с вещей, в которых человеческая деятельность уже регулируется и которые общество со временем решило как представляющие высокий риск. Взгляд на ИИ таким образом — это практический подход».

«Созданная нами структура дает конкретный подход к этим вещам», — говорит Асу Оздаглар, заместитель декана по академической работе Шварцмановского вычислительного колледжа Массачусетского технологического института и глава факультета электротехники и компьютерных наук Массачусетского технологического института (EECS), который также помогал контролировать работу.

Проект включает в себя множество дополнительных политических документов и реализуется на фоне повышенного интереса к искусственному интеллекту за последний год, а также значительных инвестиций в новую отрасль в этой области. Европейский Союз в настоящее время пытается доработать правила ИИ, используя свой собственный подход, который определяет широкие уровни риска для определенных типов приложений. Новым камнем преткновения в этом процессе стали технологии искусственного интеллекта общего назначения, такие как языковые модели. Любые усилия по управлению сталкиваются с проблемами регулирования как общих, так и конкретных инструментов искусственного интеллекта, а также с множеством потенциальных проблем, включая дезинформацию, дипфейки, слежку и многое другое.

«Мы чувствовали, что для MIT важно принять в этом участие, поскольку у нас есть опыт», — говорит Дэвид Голдстон, директор вашингтонского офиса MIT. «MIT — один из лидеров в области исследований искусственного интеллекта, одно из мест, где впервые появился искусственный интеллект. Поскольку мы принадлежим к числу тех, кто создает технологии, которые поднимают эти важные проблемы, мы чувствуем себя обязанными помочь в их решении».

Цель, намерение и ограждения

В основной аналитической записке описывается, как текущая политика может быть распространена на ИИ, используя, где это возможно, существующие регулирующие органы и системы юридической ответственности. Например, в США действуют строгие законы о лицензировании в области медицины. Выдавать себя за врача уже незаконно; если ИИ будет использоваться для назначения лекарств или постановки диагноза под видом врача, должно быть ясно, что это нарушит закон так же, как и чисто человеческие преступления. Как отмечается в аналитическом обзоре, это не просто теоретический подход; Автономные транспортные средства, в которых используются системы искусственного интеллекта, подлежат регулированию так же, как и другие транспортные средства.

Важным шагом в создании этих режимов регулирования и ответственности, подчеркивается в аналитическом обзоре, является то, что поставщики ИИ заранее определят цель и назначение приложений ИИ. Изучение новых технологий на этой основе позволит прояснить, какие существующие наборы правил и регуляторов применимы к тому или иному инструменту ИИ.

Однако также верно и то, что системы ИИ могут существовать на нескольких уровнях, в том, что технологи называют «стеком» систем, которые вместе предоставляют определенную услугу. Например, языковая модель общего назначения может лежать в основе конкретного нового инструмента. В целом, как отмечается в кратком примечании, ответственность за проблемы с ней может нести в первую очередь поставщик конкретной услуги. Однако, как говорится в первом описании, «когда система компонентов стека не работает так, как было обещано, поставщику этого компонента может быть разумно разделить ответственность». Таким образом, создатели инструментов общего назначения также должны нести ответственность, если их технологии будут задействованы в решении конкретных проблем.

«Это усложняет задачу управления, но фундаментальные модели не следует полностью игнорировать», — говорит Оздаглар. «Во многих случаях модели предоставляются поставщиками, и вы разрабатываете приложение поверх них, но они являются частью стека. Какая там ответственность? Если системы не находятся на вершине стека, это не значит, что их не следует рассматривать».

Если поставщики ИИ четко определят цель и предназначение инструментов ИИ, а также установят меры защиты для предотвращения неправильного использования, это также может помочь определить степень ответственности компаний или конечных пользователей за конкретные проблемы. В аналитическом обзоре говорится, что хороший режим регулирования должен быть в состоянии определить то, что он называет ситуацией «вилки в тостере» — когда конечного пользователя можно разумно привлечь к ответственности за знание проблем, которые могут возникнуть при неправильном использовании инструмента.

Отзывчивый и гибкий

Хотя в основу политики вовлечены существующие агентства, она также включает в себя добавление некоторых новых надзорных возможностей. Во-первых, аналитическая записка призывает к прогрессу в аудите новых инструментов искусственного интеллекта, который может развиваться по различным путям, будь то по инициативе правительства, по инициативе пользователей или в результате судебных разбирательств. В документе отмечается, что потребуются общедоступные стандарты аудита, независимо от того, будут ли они созданы некоммерческой организацией по образцу Совета по надзору за бухгалтерским учетом публичных компаний (PCAOB) или федеральным органом, аналогичным Национальному институту стандартов и технологий (NIST). ).

И в документе действительно содержится призыв к рассмотрению вопроса о создании нового, одобренного правительством агентства «саморегулируемой организации» (СРО) по функциональному принципу FINRA, созданного правительством Органа по регулированию финансовой индустрии. Такое агентство, специализирующееся на искусственном интеллекте, могло бы накопить знания в конкретной области, которые позволили бы ему реагировать и быть гибкими при взаимодействии с быстро меняющейся индустрией искусственного интеллекта.

«Эти вещи очень сложны, взаимодействие людей и машин, поэтому вам нужна оперативность», — говорит Хаттенлохер, который также является профессором Генри Эллиса Уоррена в области компьютерных наук, искусственного интеллекта и принятия решений в EECS. «Мы думаем, что если правительство рассматривает возможность создания новых агентств, ему следует действительно обратить внимание на эту структуру СРО. Ключи от магазина они не передают, поскольку это по-прежнему разрешено и контролируется государством».

Как ясно сказано в политических документах, существует несколько дополнительных конкретных юридических вопросов, которые необходимо будет решить в сфере ИИ. Авторские права и другие вопросы интеллектуальной собственности, связанные с ИИ, как правило, уже являются предметом судебных разбирательств.

А еще есть то, что Оздаглар называет правовыми проблемами «человек плюс», когда возможности ИИ выходят за рамки того, на что способны люди. К ним относятся такие вещи, как инструменты массового наблюдения, и комитет признает, что они могут потребовать специального юридического рассмотрения.

«ИИ позволяет делать то, что люди не могут делать, например, вести слежку или фейковые новости в больших масштабах, что может потребовать особого внимания, выходящего за рамки того, что применимо для людей», — говорит Оздаглар. «Но наша отправная точка по-прежнему позволяет вам думать о рисках, а затем о том, как этот риск усиливается из-за инструментов».

В наборе политических документов подробно рассматривается ряд вопросов регулирования. Например, одна статья Хлои Виттенберг, Зива Эпштейна, Адама Дж. Берински и Дэвида Дж. Рэнда «Маркировка контента, созданного искусственным интеллектом: обещания, опасности и будущие направления» основана на предыдущих исследовательских экспериментах, посвященных привлечению средств массовой информации и аудитории. оценить конкретные подходы к обозначению материалов, созданных ИИ. В другой статье Юна Кима, Джейкоба Андреаса и Дилана Хэдфилда-Менелла «Большие языковые модели» рассматриваются инновации в области искусственного интеллекта общего назначения, основанные на языках.

«Часть делать это правильно»

Как ясно сказано в аналитических записках, еще одним элементом эффективного участия правительства в этом вопросе является поощрение дополнительных исследований о том, как сделать ИИ полезным для общества в целом.

Например, программный документ «Можем ли мы создать ИИ, ориентированный на интересы работников?» «Выбор пути машин на службе разума» Дарона Аджемоглу, Дэвида Атора и Саймона Джонсона исследует возможность того, что ИИ может дополнять и помогать работникам, а не использоваться для их замены — сценарий, который обеспечит лучшую долгосрочную перспективу. экономический рост распределяется по всему обществу.

Этот диапазон анализа, с различных дисциплинарных точек зрения, является тем, что специальный комитет хотел применить к вопросу регулирования ИИ с самого начала — расширяя призму, которую можно использовать при выработке политики, а не сужать ее до нескольких технические вопросы.

«Мы действительно считаем, что академические учреждения призваны сыграть важную роль как с точки зрения знаний о технологиях, так и с точки зрения взаимодействия технологий и общества», — говорит Хуттенлохер. «Это отражает то, что будет важно для эффективного управления: политики, которые вместе думают о социальных системах и технологиях. Это то, что понадобится нации».

Действительно, отмечает Голдстон, комитет пытается преодолеть разрыв между теми, кто воодушевлен, и теми, кто обеспокоен ИИ, работая над тем, чтобы пропагандировать, что адекватное регулирование сопровождает достижения в области технологий.

По словам Голдстона, комитет, публикующий эти документы, «не является группой, выступающей против технологий или пытающейся задушить ИИ. Но, тем не менее, эта группа утверждает, что ИИ нуждается в управлении и надзоре. Это часть того, чтобы делать это правильно. Это люди, которые знают эту технологию, и они говорят, что ИИ нуждается в надзоре».

Хуттенлохер добавляет: «Работа на благо нации и мира — это то, к чему MIT серьезно относится на протяжении многих, многих десятилетий. Это очень важный момент для этого».

Помимо Хуттенлохера, Оздаглара и Голдстона, членами специального комитета являются: Дарон Аджемоглу, профессор Института и профессор экономики Элизабет и Джеймса Киллиан в Школе искусств, гуманитарных и социальных наук; Джейкоб Андреас, доцент EECS; Дэвид Аутор, профессор экономики Форда; Адам Беринский, профессор политологии Mitsui; Синтия Бризил, декан отдела цифрового обучения и профессор медиаискусства и науки; Дилан Хэдфилд-Менелл, доцент кафедры искусственного интеллекта и принятия решений Тенненбаума по развитию карьеры; Саймон Джонсон, профессор Курца по предпринимательству в Школе менеджмента Слоана Массачусетского технологического института; Юн Ким, доцент NBX по развитию карьеры в EECS; Сендхил Муллайнатан, профессор вычислительной техники и поведенческих наук Университета Римской семьи в Школе бизнеса Бута Чикагского университета; Маниш Рагхаван, доцент кафедры информационных технологий Массачусетского технологического института Слоана; Дэвид Рэнд, профессор Эрвина Х. Шелла в Массачусетском технологическом институте Слоана и профессор кафедры мозга и когнитивных наук; Антонио Торральба, профессор электротехники и информатики Delta Electronics; и Луис Видегарай, старший преподаватель Массачусетского технологического института Слоана.

Последние статьи

Related articles

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

hentai lou nicehentai.com ahegeo hentai pron v bigztube.mobi kannada school girl sex videos sxsi com pornoko.net indian porn xnxx.com سكس.جماعي pornigh.com سكس لوسي bangali sex in kompoz2.com ganapa kannada movie songs
سكس مع المعلمة matureporni.com سكس كس مفتوح desi clip.com foxporns.info girls sexy pictures хентай манга hentaitale.net hentai zombie girl little sister doujin justhentaiporn.com kasumi tendo hentai افلام جيانا مايكلز gratisfucktube.com foto sex
desi gay porn vedio momyporn.mobi nepali x video مدام شرموطه freetube18x.com ايناس الدغيدي سكس tony tony chopper hentai hentaimangaz.com naruto new hentai manga الكس والزبر pornarabic.net احلى بزاز ميلفاية arabgrid.net فلم\سكس