Зарегистрироваться

Отчет

Руководство для политиков: оценка быстро развивающихся технологий, включая искусственный интеллект, большие языковые модели и многое другое

В этой статье ISC исследует схему системы информирования политиков о многочисленных глобальных и национальных дискуссиях, связанных с ИИ.

Руководство ISC предлагает комплексную основу, призванную устранить разрыв между принципами высокого уровня и практической, действенной политикой. Оно отвечает насущной необходимости общего понимания как возможностей, так и рисков, связанных с новыми технологиями. Это важный документ для тех, кто занимается разработкой политики в нашу быстро меняющуюся цифровую эпоху.

В рамках этой концепции потенциал ИИ и его производных рассматривается через призму комплексного подхода, охватывающего благополучие человека и общества, а также внешние факторы, такие как экономика, политика, окружающая среда и безопасность. Некоторые аспекты контрольного списка могут быть более актуальными, чем другие, в зависимости от контекста, но лучшие решения кажутся более вероятными, если рассматривать все области, даже если некоторые из них можно быстро определить как нерелевантные в конкретных случаях. В этом заключается неотъемлемая ценность подхода, основанного на контрольном списке.

«В эпоху, отмеченную стремительными технологическими инновациями и сложными глобальными проблемами, структура ISC для всестороннего и многомерного анализа потенциальных последствий дает лидерам возможность принимать обоснованные и ответственные решения. Это гарантирует, что по мере нашего технологического развития мы делаем это с тщательным учетом этических, социальных и экономических последствий».

Питер Глюкман, президент ISC

Хотя принципы высокого уровня были провозглашены, среди прочих, ЮНЕСКО, ОЭСР, Европейской комиссией и ООН, и продолжаются различные дискуссии по вопросам потенциального управления, регулирования, этики и безопасности, существует большой разрыв между такими принципами и управленческая или нормативная база. ISC решает эту проблему посредством своего нового руководства для политиков.

Настоящее руководство для политиков не предназначено для того, чтобы запретить режим регулирования, а скорее предлагает адаптивную и развивающуюся аналитическую структуру, которая могла бы лежать в основе любых процессов оценки и регулирования, которые могут быть разработаны заинтересованными сторонами, включая правительства и многостороннюю систему.

«Эта структура является важным шагом в глобальном разговоре об искусственном интеллекте, поскольку она обеспечивает основу, на которой мы можем достичь консенсуса относительно последствий технологии как сейчас, так и в будущем». 

Хема Шридхар, бывший главный научный советник Министерства обороны Новой Зеландии, а ныне старший научный сотрудник Оклендского университета, Новая Зеландия.

С октября 2023 года было реализовано несколько важных национальных и многосторонних инициатив, направленных на дальнейшее рассмотрение вопросов этики и безопасности ИИ. Последствия ИИ для целостности некоторых наших важнейших систем, включая финансовую, правительственную, правовую и образовательную, а также различных систем знаний (включая научные и местные знания), вызывают растущую обеспокоенность. Структура дополнительно отражает эти аспекты.

Отзывы, полученные на сегодняшний день от членов ISC и международного политического сообщества, отражены в пересмотренной версии аналитической основы, которая теперь выпущена в качестве руководства для политиков.

Руководство для политиков: оценка быстро развивающихся технологий, включая искусственный интеллект, большие языковые модели и многое другое

В этом дискуссионном документе изложена первоначальная основа для информирования многочисленных глобальных и национальных дискуссий, связанных с ИИ.

Платформа для использования в вашей организации

Загрузите фреймворк для использования в вашей организации.

Здесь мы предоставляем инструмент платформы в виде редактируемого листа Excel для использования в вашей организации. Если вы предпочитаете формат с открытым исходным кодом, свяжитесь с [электронная почта защищена].

Введение

Быстро развивающиеся технологии создают сложные проблемы, когда речь идет об их использовании, управлении и потенциальном регулировании. Продолжающаяся политика и общественные дебаты по поводу искусственного интеллекта (ИИ) и его использования поставили эти вопросы в центр внимания. Широкие принципы ИИ были объявлены ЮНЕСКО, ОЭСР, ООН и другими организациями, включая Декларацию Блетчли Соединенного Королевства, и появляются новые юрисдикционные попытки регулирования аспектов технологии через, например, Европейский Союз (ЕС). Закон или недавний исполнительный указ США по искусственному интеллекту.

Хотя использование ИИ подробно обсуждается на этих и других форумах, несмотря на геополитические разногласия и в странах с любым уровнем дохода, остается онтологический разрыв между разработкой принципов высокого уровня и их внедрением в практику посредством либо регулирования, политики, управления. или подходы управления. Путь от принципа к практике плохо определен, но, учитывая характер и темпы разработки и применения ИИ, разнообразие вовлеченных интересов и диапазон возможных применений, любой подход не может быть слишком общим или предписывающим.

По этим причинам неправительственное научное сообщество продолжает играть особую роль. Международный научный совет (ISC), в который входят представители социальных и естественных наук, в октябре 2023 года опубликовал дискуссионный документ, в котором представлена ​​предварительная аналитическая основа, в которой рассматриваются риски, преимущества, угрозы и возможности, связанные с быстро развивающимися цифровыми технологиями. Хотя он был разработан для рассмотрения ИИ, он по своей сути не зависит от технологий и может применяться к ряду новых и прорывных технологий, таких как синтетическая биология и квантовая технология. Этот дискуссионный документ позволил получить обратную связь от ученых и политиков. Огромное количество отзывов сделало проведение такого анализа необходимым и стало ценным подходом к решению проблем новых технологий, таких как искусственный интеллект.

Целью системы является предоставление инструмента для информирования всех заинтересованных сторон – включая правительства, участников торговых переговоров, регулирующие органы, гражданское общество и промышленность – об эволюции этих технологий, чтобы помочь им определить, как они могут рассматривать последствия, положительные или отрицательные, сама технология, а точнее ее конкретное применение. Эта аналитическая основа была разработана независимо от интересов правительства и промышленности. Он максимально плюралистичен в своих взглядах, охватывая все аспекты технологии и ее последствий, основанный на обширных консультациях и отзывах.

Этот дискуссионный документ для политиков не предназначен для того, чтобы запретить режим регулирования, а, скорее, для того, чтобы предложить адаптивную и развивающуюся аналитическую структуру, которая могла бы лежать в основе любых процессов оценки и регулирования, которые могут быть разработаны заинтересованными сторонами, включая правительства и многостороннюю систему.

Поскольку лица, принимающие решения на глобальном и национальном уровне, рассматривают соответствующие параметры политики и рычаги, чтобы сбалансировать риски и выгоды от новой технологии, такой как ИИ, аналитическая основа задумана как дополнительный инструмент, обеспечивающий адекватное отражение всего набора потенциальных последствий.

Справочная информация: зачем нужна аналитическая основа?

Быстрое появление технологий со сложностью и последствиями искусственного интеллекта порождает множество заявлений об их огромной выгоде. Однако это также провоцирует опасения значительных рисков, от индивидуального до геостратегического уровня.1 Большая часть дискуссий до сих пор рассматривалась в бинарном смысле, поскольку публично выражаемые взгляды, как правило, занимают крайние точки спектра. Заявления, выдвигаемые за или против ИИ, часто преувеличены, и, учитывая природу технологии, их трудно оценить.

Необходим более прагматичный подход, при котором гипербола заменяется выверенными и более детальными оценками. Технология искусственного интеллекта будет продолжать развиваться, и история показывает, что практически каждая технология имеет как полезное, так и вредное применение. Поэтому вопрос заключается в следующем: как мы можем добиться полезных результатов от этой технологии, одновременно снижая риск вредных последствий, некоторые из которых могут иметь экзистенциальные масштабы?

Будущее всегда неопределенно, но существует достаточно авторитетных и экспертных мнений относительно ИИ и генеративного ИИ, чтобы поощрять относительно осторожный подход. Кроме того, необходим системный подход, поскольку ИИ — это класс технологий, широко используемый и применяемый разными типами пользователей. Это означает, что при рассмотрении последствий любого использования ИИ для отдельных лиц, социальной жизни, гражданской жизни, общественной жизни и в глобальном контексте необходимо учитывать весь контекст.

В отличие от большинства других технологий, для цифровых и связанных с ними технологий время между разработкой, выпуском и применением чрезвычайно короткое, что во многом обусловлено интересами производственных компаний или агентств. По самой своей природе – и учитывая, что он основан на цифровой магистрали – ИИ будет иметь приложения, которые будут быстро распространяться, как это уже было видно при разработке больших языковых моделей. В результате некоторые свойства могут проявиться только после высвобождения, а это означает, что существует риск непредвиденных последствий, как злонамеренных, так и доброжелательных.

Важные аспекты социальных ценностей, особенно в разных регионах и культурах, будут влиять на то, как любое использование будет восприниматься и приниматься. Более того, геостратегические интересы уже доминируют в дискуссиях, при этом суверенные и многосторонние интересы постоянно пересекаются и, таким образом, вызывают конкуренцию и разногласия.

На сегодняшний день большая часть регулирования виртуальных технологий в основном рассматривается через призму «принципов» и добровольного соблюдения, хотя и с учетом Закона ЕС об искусственном интеллекте.2 и аналогичным образом мы наблюдаем переход к более обязательным, но несколько узким правилам. Создание эффективной глобальной или национальной системы управления технологиями и/или регулирования остается сложной задачей, и очевидного решения не существует. По всей цепочке от изобретателя к производителю, пользователю, правительству и многосторонней системе потребуются многочисленные уровни принятия решений с учетом рисков.

Хотя принципы высокого уровня были провозглашены, среди прочего, ЮНЕСКО, ОЭСР, Европейской комиссией и ООН, а также продолжаются различные дискуссии на высоком уровне относительно вопросов потенциального управления, регулирования, этики и безопасности, существует большой разрыв между такими принципы, а также структуру управления или регулирования. Это необходимо решить.

В качестве отправной точки ISC рассматривает разработку таксономии соображений, на которые мог бы ссылаться любой разработчик, регулирующий орган, политический советник, потребитель или лицо, принимающее решения. Учитывая широкие последствия этих технологий, такая таксономия должна учитывать совокупность последствий, а не узконаправленную структуру. Глобальная фрагментация усиливается из-за влияния геостратегических интересов на принятие решений, и, учитывая актуальность этой технологии, крайне важно, чтобы независимые и нейтральные голоса настойчиво отстаивали единый и инклюзивный подход.


1) Индостан Таймс. 2023. G20 должна создать международную группу по технологическим изменениям.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) Закон ЕС об искусственном интеллекте. 2023. https://artificialintelligenceact.eu.

Разработка аналитической основы

ISC является основной глобальной неправительственной организацией, объединяющей естественные и социальные науки. Его глобальный и дисциплинарный охват означает, что он имеет хорошие возможности для выработки независимых и глобально актуальных рекомендаций для информирования о сложных решениях, которые предстоит принять, особенно с учетом того, что нынешние голоса на этой арене исходят в основном от промышленности или политических и политических сообществ крупных технологических держав.

После периода обширных обсуждений, которые включали в себя рассмотрение процесса неправительственной оценки, ISC пришел к выводу, что его наиболее полезным вкладом будет создание адаптивной аналитической структуры, которая может использоваться в качестве основы для обсуждения и принятия решений всеми заинтересованными сторонами, в том числе в ходе любых формальных процессов оценки.

Предварительная аналитическая основа, которая была опубликована для обсуждения и отзывов в октябре 2023 года, приняла форму всеобъемлющего контрольного списка, предназначенного для использования как государственными, так и неправительственными организациями. В рамках этой концепции был определен и исследован потенциал такой технологии, как ИИ и его производные, через широкую призму, охватывающую благополучие человека и общества, а также внешние факторы, такие как экономика, политика, окружающая среда и безопасность. Некоторые аспекты контрольного списка могут быть более актуальными, чем другие, в зависимости от контекста, но лучшие решения кажутся более вероятными, если рассматривать все области, даже если некоторые из них можно быстро определить как нерелевантные в конкретных случаях. В этом заключается неотъемлемая ценность подхода, основанного на контрольном списке.

Предварительная основа была основана на предыдущей работе и размышлениях, включая отчет Международной сети правительственных научных консультаций (INGSA) о цифровом благополучии3 и Рамочную программу ОЭСР по классификации систем искусственного интеллекта4, чтобы представить всю совокупность потенциальных возможностей, рисков и воздействий. ИИ. Эти предыдущие продукты были более ограничены в своих целях, учитывая их время и контекст; существует потребность в всеобъемлющей системе, которая бы охватывала весь спектр вопросов как в краткосрочной, так и в долгосрочной перспективе.

С момента своего выпуска дискуссионный документ получил значительную поддержку со стороны многих экспертов и политиков. Многие специально поддержали рекомендацию разработать адаптивную структуру, которая позволит сознательно и активно учитывать риски и последствия технологии и при этом всегда учитывать всю совокупность измерений, от человека до общества и систем.

Одним из ключевых наблюдений, сделанных в ходе обратной связи, было признание того, что некоторые из последствий, рассматриваемых в рамках, по своей сути многогранны и охватывают множество категорий. Например, дезинформацию можно рассматривать как с индивидуальной, так и с геостратегической точки зрения; таким образом, последствия будут самыми разнообразными.

Также был предложен вариант включения тематических исследований или примеров для проверки структуры. Это можно использовать для разработки руководящих принципов, демонстрирующих, как их можно использовать на практике в различных контекстах. Однако это будет серьезной задачей и может ограничить то, как разные группы воспринимают использование этой структуры. Лучше всего это будет делать политикам, работающим с экспертами в конкретных юрисдикциях или контекстах.

С октября 2023 года было реализовано несколько важных национальных и многосторонних инициатив, направленных на дальнейшее рассмотрение вопросов этики и безопасности ИИ. Последствия ИИ для целостности некоторых наших важнейших систем, включая финансовую, правительственную, правовую и образовательную, а также различных систем знаний (включая научные и местные знания), вызывают растущую обеспокоенность. Пересмотренная система дополнительно отражает эти аспекты.

Полученные на сегодняшний день отзывы отражены в пересмотренной версии аналитической основы, которая теперь выпущена в качестве руководства для политиков.

Хотя эта концепция представлена ​​в контексте ИИ и связанных с ней технологий, ее можно сразу же перенести на рассмотрение других быстро развивающихся технологий, таких как квантовая и синтетическая биология.


3) Глакман П. и Аллен К. 2018. Понимание благополучия в контексте быстрых цифровых и связанных с ними преобразований. ИНГСА.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) ОЭСР. 2022. Рамки ОЭСР для классификации систем искусственного интеллекта. Документы ОЭСР по цифровой экономике, № 323,#. Париж, Издательство ОЭСР.
https://oecd.ai/en/classificatio

Фреймворк

В следующей таблице представлены размеры предполагаемой аналитической структуры. Приводятся примеры, иллюстрирующие, почему каждый домен может иметь значение; в контексте рамки потребуют контекстуально соответствующего расширения. Также важно различать общие проблемы, возникающие при разработке платформы, и проблемы, которые могут возникнуть при разработке конкретных приложений. Ни одно из включенных здесь соображений не должно рассматриваться как приоритетное, и поэтому следует рассмотреть все.

Проблемы в целом сгруппированы по следующим категориям, как указано ниже:

  • Благополучие (включая благополучие отдельных лиц или самого себя, общества, социальной и гражданской жизни)
  • Торговля и экономика
  • Экологические исследования георадаром
  • Геостратегические и геополитические
  • Технологические (характеристики системы, конструкция и применение)

В таблице подробно описаны параметры, которые, возможно, придется учитывать при оценке новой технологии.

🔴ИНГСА. 2018. Понимание благополучия в контексте быстрых цифровых и связанных с ними преобразований.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

🟢 Новые дескрипторы (получены в результате обширных консультаций, отзывов и обзора литературы)

🟡 Рамки классификации систем искусственного интеллекта ОЭСР: инструмент для эффективной политики в области искусственного интеллекта.
https://oecd.ai/en/classification

Размеры воздействия: Индивидуальный/самостоятельный

КритерииПримеры того, как это может быть отражено в анализе
🟡Компетентность пользователей в области искусственного интеллектаНасколько компетентны и осведомлены о свойствах системы вероятные пользователи, которые будут с ней взаимодействовать? Как им будет предоставлена ​​соответствующая пользовательская информация и предупреждения?
🟡 Затронутая заинтересованная сторонаКто является основными заинтересованными сторонами, на которых будет воздействовать система (отдельные лица, сообщества, уязвимые группы, отраслевые работники, дети, политики, специалисты и т. д.)?
🟡 ОпциональностьПредоставляется ли пользователям возможность отказаться от системы или им предоставляется возможность оспорить или исправить выходные данные?
🟡Риски для прав человека и демократических ценностейВлияет ли система фундаментально на права человека, включая, помимо прочего, неприкосновенность частной жизни, свободу выражения мнений, справедливость, недискриминацию и т. д.?
🟡Потенциальное влияние на благополучие людейСвязаны ли области воздействия системы с благополучием отдельного пользователя (качество работы, образование, социальное взаимодействие, психическое здоровье, идентичность, окружающая среда и т. д.)?
🟡 Возможность вытеснения людей из рабочей силыЕсть ли у системы потенциал для автоматизации задач или функций, которые выполнялись людьми? Если да, то каковы последующие последствия?
🟡 Возможность манипулирования идентичностью, ценностями или знаниямиРазработана ли система или потенциально способна ли она манипулировать личностью пользователя или
устанавливают ценности или распространяют дезинформацию?
🔴 Возможности для самовыражения и самореализацииЕсть ли потенциал для искусственности и неуверенности в себе? Существует ли вероятность ложного или
непроверяемые заявления об экспертизе?
🔴 Меры самооценкиЕсть ли необходимость изображать идеализированное «я»? Может ли автоматизация заменить смысл
личного удовлетворения? Есть ли необходимость конкурировать с системой в
рабочее место? Сложнее ли защитить индивидуальную репутацию от дезинформации?
🔴 КонфиденциальностьРаспределены ли обязанности по защите конфиденциальности и есть ли какие-либо
предположения о том, как используются персональные данные?
🔴 АвтономностьМожет ли система ИИ повлиять на человеческую автономию, вызывая чрезмерную зависимость от
конечные пользователи?
🔴Человеческое развитиеОказывает ли влияние на приобретение ключевых навыков для человеческого развития, таких как
исполнительные функции или навыки межличностного общения, или изменения во времени внимания, влияющие на
обучение, развитие личности, проблемы психического здоровья и т. д.?
🔴 Забота о личном здоровьеЕсть ли заявления о самодиагностике или персонализированных решениях в области здравоохранения? Если так,
проверены ли они на соответствие нормативным стандартам?
🔴 Психическое здоровьеСуществует ли риск повышенной тревожности, одиночества или других проблем с психическим здоровьем, или
Может ли технология смягчить такие последствия?
🟢 Эволюция человекаМогут ли большие языковые модели и общий искусственный интеллект изменить
ход эволюции человека?
🟢 Взаимодействие человека и машиныМожет ли использование со временем привести к потере квалификации и зависимости отдельных лиц? Являются
влияет ли это на человеческое взаимодействие?
5) Технологические критерии, рассматриваемые в рамках, предназначены специально для ИИ, и их необходимо будет пересмотреть для других технологий по мере необходимости.

Размеры воздействия: Общество/социальная жизнь

Критерии Примеры того, как это может быть отражено в анализе
🔴 Общественные ценностиИзменяет ли система фундаментально природу общества, позволяет ли нормализовать идеи, ранее считавшиеся антисоциальными, или нарушает социальные ценности культуры, в которой она применяется?
🔴 Социальные взаимодействияЕсть ли влияние на значимые человеческие контакты, включая эмоциональные отношения?
🔴 Здоровье населенияЕсть ли у системы потенциал способствовать или подрывать намерения населения в отношении здоровья?
🔴 Культурное самовыражениеЯвляется ли увеличение культурного присвоения или дискриминации вероятным или более трудным для решения проблемы? Исключает ли использование системы принятия решений или маргинализирует культурно значимые межгрупповые связи общества?
🔴 Государственное образованиеЕсть ли влияние на роли учителей или учебных заведений? Подчеркивает или уменьшает ли система цифровой разрыв и неравенство среди студентов? Повышается или ослабляется внутренняя ценность знаний или критического понимания?
🟢 Искаженная реальностьПрименимы ли по-прежнему методы, используемые для определения истинного? Нарушено ли восприятие реальности?

Размеры воздействия: Экономический контекст (торговля)

КритерииПримеры того, как это может быть отражено в анализе
🟡 Промышленный секторВ каком промышленном секторе развернута система (финансы, сельское хозяйство, здравоохранение, образование, оборона и т. д.)?
🟡 Бизнес-модельВ какой бизнес-функции используется система и в каком качестве? Где используется система (частная, государственная, некоммерческая)?
🟡 Влияние на критически важную деятельность Повлияет ли нарушение функционирования или деятельности системы на основные услуги или критически важную инфраструктуру?
🟡Широта развертыванияКак развертывается система (узкое использование внутри подразделения или широкое распространение на национальном/международном уровне)?
🟡 Техническая зрелостьНасколько технически развита система?
🟢 Совместимость Могут ли существовать разрозненные структуры на национальном или глобальном уровне, которые препятствуют свободной торговле и влияют на сотрудничество с партнерами?
🟢Технологический суверенитетЯвляется ли стремление к технологическому суверенитету движущей силой поведения, включая контроль над всей цепочкой поставок ИИ?
🔴 Перераспределение доходов и национальные фискальные рычагиМогут ли быть поставлены под угрозу основные функции суверенного государства (например, резервные банки)? Будет ли способность государства удовлетворять ожидания граждан и последствия (социальные, экономические, политические и т.д.) увеличиваться или уменьшаться?
🟢 Цифровой разрыв (ИИ-разрыв) Усугубляется ли существующее цифровое неравенство или создается новое?

Размеры воздействия: Гражданская жизнь

КритерииПримеры того, как это может быть отражено в анализе
🔴 Управление и государственная службаМогут ли механизмы управления и глобальная система управления подвергнуться положительному или отрицательному воздействию?
🔴 СМИВероятно ли, что общественный дискурс станет поляризованным и укоренится на уровне населения? Будет ли это влиять на уровень доверия к «четвертой власти»? Будут ли затронуты традиционные стандарты журналистской этики и добросовестности?
🔴 Верховенство законаБудет ли это влиять на способность выявлять отдельных лиц или организации, подлежащих привлечению к ответственности (например, какую ответственность возложить на алгоритм за неблагоприятные результаты)? Произошла ли потеря суверенитета (экологической, финансовой, социальной политики, этики и т. д.)?
🔴Политика и социальная сплоченностьСуществует ли возможность более укоренившихся политических взглядов и меньше возможностей для достижения консенсуса? Существует ли возможность дальнейшей маргинализации групп? Состязательные стили политики становятся более или менее вероятными?
🟢 Социальная лицензияСуществуют ли проблемы конфиденциальности, проблемы доверия и моральные проблемы, которые необходимо учитывать для принятия заинтересованными сторонами использования?
🟢 Местные знанияМогут ли знания и данные коренных народов быть искажены или незаконно присвоены? Существуют ли адекватные меры для защиты от искажения фактов, дезинформации и эксплуатации?
🟢 Научная системаНарушена ли академическая и исследовательская честность? Есть ли потеря доверия к науке? Существуют ли возможности неправильного использования, чрезмерного использования или злоупотреблений? Каковы последствия научной практики?

Размеры воздействия: геостратегический/геополитический контекст

КритерииПримеры того, как это может быть отражено в анализе
🟢 Точное наблюдениеОбучены ли системы на индивидуальных поведенческих и биологических данных и могут ли они использоваться для эксплуатации отдельных лиц или групп?
🟢 Цифровой конкурсМогут ли государственные или негосударственные субъекты (например, крупные технологические компании) использовать системы и данные для понимания и контроля над населением и экосистемами других стран или подорвать юрисдикционный контроль?
🟢 Геополитическая конкуренцияМожет ли система вызвать конкуренцию между странами за использование индивидуальных и групповых данных в экономических, медицинских целях и интересах безопасности?
🟢 Сдвиг в мировых силахНаходится ли под угрозой статус национальных государств как основных мировых геополитических игроков? Обладают ли технологические компании властью, когда-то принадлежавшей национальным государствам, и стали ли они независимыми, суверенными субъектами (формирующийся технополярный мировой порядок)?
🟢 ДезинформацияБудет ли система способствовать производству и распространению дезинформации государственными и негосударственными субъектами, что повлияет на социальную сплоченность, доверие и демократию?
🟢 Приложения двойного назначенияЕсть ли возможность как военного, так и гражданского применения?
🟢 Фрагментация глобального порядкаМожет ли возникнуть разрозненность или кластеры регулирования и соблюдения требований, которые будут препятствовать сотрудничеству, приводить к несогласованности в применении и создавать возможности для конфликтов?

Размеры воздействия: Экологическая

КритерииПримеры того, как это может быть отражено в анализе
🟢 Потребление энергии и ресурсов (углеродный след)Увеличивают ли система и требования потребление энергии и ресурсов сверх повышения эффективности, полученного за счет применения?
🟢Источник энергииОткуда берется энергия для системы (возобновляемые источники энергии или ископаемое топливо и т. д.)?

Размеры воздействия: данные и вклад

КритерииПримеры того, как это может быть отражено в анализе
🟡 Направление и сборСобираются ли данные и вводимые данные людьми, автоматическими датчиками или и тем, и другим?
🟡 Происхождение данныхЯвляются ли данные и вклад экспертов предоставленными, наблюдаемыми, синтетическими или производными? Существуют ли водяные знаки для подтверждения происхождения?
🟡 Динамический характер данныхЯвляются ли данные динамическими, статическими, динамическими и обновляются время от времени или в режиме реального времени?
🟡 ПраваЯвляются ли данные собственностью, общедоступными или личными (относящимися к идентифицируемым лицам)?
🟡 Идентификация и персональные данныеЕсли личные данные, являются ли данные анонимными или псевдонимизированными?
🟡 Структура данныхЯвляются ли данные структурированными, полуструктурированными, сложноструктурированными или неструктурированными?
🟡 Формат данныхЯвляется ли формат данных и метаданных стандартизированным или нестандартизованным?
🟡 Масштаб данныхКаков масштаб набора данных?
🟡 Соответствие и качество данных Соответствует ли набор данных поставленной цели? Адекватен ли размер выборки? Является ли он репрезентативным и достаточно полным? Насколько зашумлены данные? Это подвержено ошибкам?

Размеры воздействия: Модель

КритерииПримеры того, как это может быть отражено в анализе
🟡 Доступность информацииДоступна ли какая-либо информация о модели системы?
🟡 Тип модели ИИЯвляется ли модель символической (правила, созданные человеком), статистической (использует данные) или гибридной?
🟡 Права, связанные с модельюЯвляется ли модель открытым исходным кодом или проприетарной, управляется ли она самостоятельно или третьей стороной?
🟡 Одна из нескольких моделейСостоит ли система из одной модели или из нескольких взаимосвязанных моделей?
🟡 Генеративный или дискриминационныйЯвляется ли модель генеративной, дискриминационной или и той, и другой?
🟡 Построение моделиОбучается ли система на основе правил, написанных человеком, на основе данных, посредством контролируемого обучения или обучения с подкреплением?
🟡 Эволюция модели (дрейф ИИ)Развивается ли модель и/или приобретает ли она способности в результате взаимодействия с полевыми данными?
🟡 Федеративное или централизованное обучениеОбучается ли модель централизованно или на нескольких локальных серверах или «граничных» устройствах?
🟡 Разработка/поддержкаЯвляется ли модель универсальной, настраиваемой или адаптированной к данным субъекта ИИ?
🟡 Детерминированный или вероятностный Используется ли модель детерминистическим или вероятностным образом?
🟡 Прозрачность модели Доступна ли пользователям информация, позволяющая им понять выходные данные и ограничения модели или ограничения использования?
🟢 Вычислительное ограничениеСуществуют ли вычислительные ограничения системы? Можно ли предсказать скачки возможностей или законы масштабирования?

Размеры воздействия: задача и результат

КритерииПримеры того, как это может быть отражено в анализе
🟡 Задачи, выполняемые системойКакие задачи выполняет система (распознавание, обнаружение событий, прогнозирование и т. д.)?
🟡 Объединение задач и действийСочетает ли система несколько задач и действий (системы генерации контента, автономные системы, системы управления и т. д.)?
🟡 Уровень автономности системы Насколько автономны действия системы и какую роль играют люди?
🟡 Степень участия человекаЕсть ли участие человека для наблюдения за общей деятельностью системы ИИ и возможности решать, когда и как использовать систему ИИ в любой ситуации?
🟡 Основное приложениеОтносится ли система к основной области применения, такой как технологии человеческого языка, компьютерное зрение, автоматизация и/или оптимизация или робототехника?
🟡 ОценкаДоступны ли стандарты или методы для оценки производительности системы?

Как можно использовать эту структуру?

Эту структуру можно использовать разными способами, в том числе:

  • Устранить разрыв между принципами высокого уровня и оценкой для целей регулирования или управления. Эта структура может способствовать этому путем создания проверенной общей таксономии ряда вопросов, которые заслуживают рассмотрения соответствующими заинтересованными сторонами в качестве основы для информирования и формирования дальнейшего мышления. Например, на национальном уровне эта структура может использоваться правительством в качестве инструмента при разработке национальной стратегии и политики в области ИИ для создания общей основы рисков и возможностей среди групп заинтересованных сторон.
  • Для информирования об оценках воздействия. Закон ЕС об искусственном интеллекте требует от организаций, которые предоставляют инструменты искусственного интеллекта или внедряют искусственный интеллект в свои процессы, проводить оценку воздействия, чтобы определить риск своих инициатив и применять соответствующий подход к управлению рисками. Представленная здесь структура может быть использована в качестве основы для этого.
  • Для информирования о сканировании горизонтов на предмет рисков и будущих сценариев. Классификация рисков в промежуточном отчете Консультативного органа ООН по искусственному интеллекту6 в целом соответствует структуре, представленной здесь. Существует возможность использования этой структуры для достижения консенсуса и проверки серьезности возникающих рисков, а также их предотвращения.
  • Укрепить этические принципы, необходимые для руководства и регулирования использования ИИ. Эта структура может сделать это, предоставив гибкую основу для разработки надежных систем и гарантируя законное, этичное, надежное и ответственное использование технологии. Эти принципы можно было бы проверить на фоне всего спектра воздействий, представленных в данной схеме.
  • Содействовать подведению итогов существующих и разрабатываемых мер (нормативных, законодательных, политических, стандартов, управления и т. д.) и выявлению пробелов, которые требуют дальнейшего рассмотрения. Их можно сопоставить с рамочными категориями на национальном или многонациональном уровне, чтобы выявить пробелы и определить подходящие меры по смягчению рисков.
  • Поддержать использование ИИ правительством. Поскольку многие правительства определяют свои соответствующие стратегии использования ИИ в учреждениях и системах, эту структуру можно использовать для определения соответствующих пороговых значений риска и определения ключевых заинтересованных сторон и обязанностей.
  • Поддержать общественный дискурс и установить социальную лицензию на использование ИИ и лежащие в его основе данные, которые будут использоваться в государственных службах или в обществе в более широком смысле.

Путь вперед
Таким образом, аналитическая основа представлена ​​в качестве основы набора инструментов, который может использоваться заинтересованными сторонами для всестороннего анализа любых значительных изменений в платформах или их использовании на последовательной и систематической основе. Измерения, представленные в этой схеме, имеют отношение к оценке технологий и государственной политике, от человеческого развития к социологии, а также к исследованиям будущего и технологий. Хотя эта аналитическая основа разработана для ИИ, она имеет гораздо более широкое применение к любой другой новой технологии.

6 Консультативный совет ООН по искусственному интеллекту. 2023. Промежуточный отчет: Управление искусственным интеллектом для человечества. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Благодарности

Со многими людьми были проведены консультации и предоставлены отзывы при разработке как первоначального документа для обсуждения, так и отзывов после его выпуска. Оба документа были написаны сэром Питером Глакманом, президентом ISC, и Хемой Шридхар, бывшим главным научным советником Министерства обороны Новой Зеландии, а ныне старшим научным сотрудником Оклендского университета, Новая Зеландия.

В частности, ISC лорд Мартин Рис, бывший президент Королевского общества и соучредитель Центра изучения экзистенциальных рисков Кембриджского университета; профессор Шиваджи Сондхи, профессор физики Оксфордского университета; профессор К. Виджай Рагхаван, бывший главный научный советник правительства Индии; Амандип Сингх Гилл, посланник Генерального секретаря ООН по технологиям; Шон О Хейгеартай, исполнительный директор Центра изучения экзистенциальных рисков Кембриджского университета; Сэр Дэвид Шпигельхальтер, профессор Винтонского университета по общественному пониманию рисков
Кембриджа; Аманда-Джун Браунер, старший советник по вопросам политики, и Ян Виггинс, директор по международным делам Королевского общества, Великобритания; д-р Жером Дюберри, управляющий директор, и д-р Мари-Лор Саллес, директор Женевского института последипломного образования; Чор Фарн Ли, Центр стратегического будущего, канцелярия премьер-министра, Сингапур; Баренд Монс и д-р Саймон Ходсон, Комитет по данным (CoDATA); профессор Юко Хараяма, бывший исполнительный директор RIKEN; Профессор
Реми Кирион, президент INGSA; д-р Клэр Крейг, Оксфордский университет, бывший руководитель отдела прогнозирования Государственного управления науки; профессор Йошуа Бенджио, Научно-консультативный совет Генерального секретаря ООН и Университет Монреаля; и многие другие, кто предоставил отзыв ISC по первоначальному дискуссионному документу.


Далее

Подготовка национальных исследовательских экосистем к использованию ИИ: стратегии и прогресс в 2024 году

Этот рабочий документ аналитического центра ISC, Центра будущего науки, предоставляет фундаментальную информацию и доступ к ресурсам из стран со всех уголков мира, находящихся на различных этапах интеграции ИИ в их исследовательские экосистемы.

перейти к содержанию