Обеспечить безопасность, не ограничивая развитие

4550
Анастасия Шварц

Искусственный интеллект может принести больше пользы, если выстроить адекватную систему управления рисками

коллаж Натальи Ляликовой

Такие выводы содержатся в Международном отчете по безопасности ИИ, который был опубликован накануне прошедшего в Париже в феврале AI Action Summit.

Подготовленный группой из 96 независимых экспертов в области искусственного интеллекта, включая международную эксперт­ную консультативную группу, представленную 30 странами, Организацией экономичес­кого сотрудничества и развития (ОЭСР), Европейским союзом (ЕС) и Организацией Объединенных Наций (ООН), отчет позицио­нируется как первый в своем роде тематический обзор, в котором проанализированы риски и безопасность ИИ.

Технологии искусственного интеллекта сегодня используются во многих сферах, но отчет сосредоточен на так называемом «универсальном ИИ» (таковым является, в частности, ChatGPT), способном выполнять широкий спектр задач. Именно он наиболее стремительно развивается и именно им люди пользуются особенно активно.

Как отмечают авторы отчета, еще несколько лет назад даже лучшие большие языковые модели (LLMs) редко могли создать связный абзац текста. Сегодня универсальный ИИ может писать компьютерные программы, генерировать фотореалистичные изображения и вести продолжительные открытые диалоги. Многие компании инвестируют в разработку универсальных
ИИ-агентов, которые могут автономно действовать, планировать и распределять задачи для достижения целей с минимальным или полным отсутствием контроля со стороны человека.

Относительно темпов дальнейшего развития технологии и, соответственно, возможностей ИИ у экспертов нет однозначного мнения: потенциально они могут как ускориться, так и замедлиться. Прогресс будет зависеть от того, смогут ли компании быстро задействовать еще больше данных и вычислительных мощностей для обучения новых моделей, а также от того, позволит ли такое масштабирование преодолеть текущие ограничения моделей.

Кроме того, могут произойти события, которые невозможно спрогнозировать, но которые придадут импульс, застопорят процесс или даже спровоцируют откат (например, прорывное научное открытие, дефицит энергетических мощностей, серьезная ЧС и тому подобное).

Вместе с тем понимание того, насколько быстро и как будут развиваться универсальные ИИ в ближайшие годы, чрезвычайно важно. Поскольку, как отмечается в отчете, уже сейчас по мере рос­та их возможностей постепенно появляются свидетельства дополнительных проблем.

В целом в отчете выделены три основные категории рисков: рис­ки злонамеренного использования (угрозы, возникающие, когда ИИ используется преступниками или злоумышленниками); риски, связанные с ошибками и сбоями (проблемы, вызванные некорректной работой ИИ), а также системные риски (угрозы, затрагивающие общество в целом).

Многие риски первой категории уже хорошо знакомы: зло­умышленники используют универсальный ИИ для создания фейкового контента (с целью мошенничества, нанесения вреда репутации людей, травли, шантажа и так далее), манипуляции общественным мнением, кибер­атак и так далее.

Даже если пользователи не собираются использовать ИИ во вредоносных целях, серьезные риски могут возникнуть из-за его сбоев и ошибок. Один из ключевых – проблема с надежностью. То есть ИИ не всегда дает точные и достоверные сведения в ответе на запрос пользователя, что может быть особенно чувствительным для людей, если они обращаются за юридической или медицинской консультацией.

«Многие пользователи не осознают ограничений ИИ. Это может быть связано с низким уровнем «ИИ-грамотности», вводящей в заблуждение рекламой или некорректными объяснениями со стороны разработчиков», – говорится в отчете.

Еще одна проблема – предвзятость и даже дискриминация. Как отмечается в отчете, универсальный ИИ часто демонстрирует предвзятость по таким парамет­рам, как раса, гендер, культура, возраст, инвалидность, политические взгляды, и другим аспектам человеческой идентичности.

Такие «искажения» в работе сис­тем искусственного интеллекта могут способствовать укреплению негативных стереотипов, усиливать дискриминацию в различных сферах и так далее. Причем по мере развития ИИ и изучения его работы эксперты обнаруживают новые формы предвзятости. Стоит добавить, что данная проблема часто связана с качеством и разнообразием
обучающих данных.

Другой аспект – потеря конт­роля. Это гипотетический сценарий, при котором универсальный ИИ выходит из-под контроля человека и нет очевидного способа его остановить. На данный момент эксперты сходятся во мнении, что текущие модели ИИ не обладают достаточными возможностями для такого сценария. Однако относительно перспектив будущего консенсуса у ученых нет.

Что касается системных рисков, то, как отмечают авторы отчета, потенциально их спектр довольно широк – от влияния на рынок труда и усугубления неравенства в развитии до угроз конфиденциальности и негативного воздействия на окружающую среду.

Про влияние универсального ИИ на рынок труда в последние годы говорится немало: эксперты считают, что если его развитие продолжится такими же быстрыми темпами, то многие люди могут потерять рабочие места в результате автоматизации многих процессов. В то же время многие экономисты считают: потенциальные потери рабочих мест могут быть компенсированы (частично или полностью) созданием новых рабочих мест и ростом спроса в секторах, не поддающихся автоматизации.

Еще один аспект: на данный момент исследования в этой сфере ведутся в основном в нескольких западных странах и Китае, а рынок универсального ИИ контролируется небольшим числом компаний. Не все государства имеют равный доступ к дорогостоящим вычислительным ресурсам, необходимым для разработки ИИ. Сложившаяся ситуация может привести к усилению зависимости одних стран от других, углублению глобального неравенства, а также стать фактором уязвимости для государств, обществ и критически важных секторов.

Отдельная тема, выделенная в отчете, – экологические рис­ки. Как отмечают эксперты, быст­ро растущее использование вычис­лительных мощностей в разработке и масштабировании универсального ИИ привело к резкому увеличению потреб­ления энергии, воды и сырья, необходимых для создания и эксплуатации соответствующей инфраструктуры.

Угрозы конфиденциальности – еще один системный риск. Универсальный ИИ может привести к нарушениям конфиденциальности пользователей. Например, если конфиденциальная информация была включена в обучающий набор данных, то ИИ может случайно раскрыть ее при взаимодействии с пользователем.

Если пользователи сами делятся конфиденциальной информацией с системой, эти данные также могут быть уязвимыми. Кроме того, возможно использование ИИ для анализа больших объемов данных, чтобы выявить чувствительную информацию о конкретных людях.

«Усовершенствование возможностей ИИ привело к его использованию в более чувствительных областях, таких как здравоохранение и контроль за рабочими местами, что увеличивает риски нарушения конфиденциальности», – отмечают авторы отчета.

Другой актуальный вопрос: универсальный ИИ как изучает, так и создает материалы (в том числе творческого характера – картины, тексты, стихотворения и так далее), что создает вызовы для традиционных систем согласия на использование данных, компенсации и контроля. Сбор данных и генерация контента затрагивают различные законы об авторских правах и правах на данные, которые различаются в разных странах.

Как отмечается в отчете, из-за юридической неопределенности вокруг практик сбора данных ИИ-компании стали публиковать меньше информации о том, какие именно данные они используют. Такая непрозрачность услож­няет независимые исследования
безопасности ИИ.

«Будущее универсального искусственного интеллекта остается неопределенным, и в ближайшее время возможны самые разные сценарии – от крайне позитивных до крайне негативных. Эта неопределенность может вызывать фатализм и создавать ощущение, что ИИ развивается сам по себе, но на самом деле именно человеческие решения – со стороны общества и правительств – определяют, каким будет путь», – подчеркивают авторы отчета.

В целом идея отчета как раз и заключалась в том, чтобы предос­тавить научную информацию, которая поможет в принятии обоснованных политических решений, улучшить коллективное понимание технологии ИИ и ее потенциальных рисков.

Авторы отчета сознательно не стали давать рекомендации и «рецепты», как сделать использование ИИ более безопасным. Отчасти это обусловлено тем, что эксперты по-разному оценивают существующие доказательства рисков: одни считают, будто некоторые угрозы появятся только через десятилетия, в то время как другие полагают, что универсальный ИИ может привести к масштабному ущербу уже в ближайшие годы.

«Темпы и непредсказуемость развития универсального ИИ соз­дают «дилемму доказательств» для политиков. Из-за порой стремительных и неожиданных дос­тижений им часто приходится взвешивать потенциальные выгоды и риски новых технологий, не имея достаточного количества научных данных. В этом заключается дилемма: с одной стороны, упреж­дающие меры по снижению рисков на основе ограниченных данных могут оказаться неэффективными или ненужными. С другой стороны, ожидание более веских доказательств надвигающейся угрозы может оставить общество без подготовки или даже сделать предотвращение риска невозможным – например, если внезапные скачки возможностей ИИ приведут к мгновенному появлению новых рисков», – обращают внимание эксперты.

Компании и правительства разрабатывают системы раннего предупреждения и механизмы управления рисками, которые могут изменить ситуацию. В целом, как отмечается в отчете, сегодня методы управления рисками находятся еще на ранней стадии, но ученые и политики все активнее работают над стандартизацией подходов к управлению ими и международной координацией в этой области.

В том числе этот вопрос занимает большое место в повестке ООН. Принятый на Саммите будущего Организации Объединенных Наций в прошлом году Глобальный цифровой договор включает в себя первое универсальное соглашение по управлению ИИ. Тогда же было принято решение о создании Независимой международной научной панели по ИИ – структуры, которая объединяет экспертов из различных стран и дисциплин для оценки рисков, возможностей и перспектив, связанных с ИИ, а также разработки рекомендаций по его регулированию и использованию.

Популярное

Все
Формула успеха для Казахстана
Поэтическая стрела Серика Аксункара
Остались ордена на парадном костюме
В области Абай открылись две новые школы
Компания Apple открыла доступ к медицинским сервисам в Казахстане
Где чисто, там и комфортно
Работа в связке
Закаленные, в свое дело влюбленные
Береги себя смолоду
Выжить и победить
Усилить контроль за финансовыми потоками
От цифрового тенге к цифровому НДС
Пусть в школе научат, в семье поддержат
Детям все интересно
«Неслучайные штрихи»
Повысить эффективность комплаенс-служб
В Антикоре подвели итоги профмероприятий
С акцентом на молодежную политику
Принять и простить
Когда человек на своем месте
Как отдохнут казахстанцы на майские праздники
Жительница Карагандинской области отсудила 10 млн тенге за проданный ей автомобиль с дефектом
Казахстан – драйвер укрепления сотрудничества ЕС и ЦА
Ветерана войны поздравили со 100-летним юбилеем
Мощное землетрясение зафиксировано в Таиланде и Мьянме
Туристический сезон стартовал в Туркестане
Экономическое развитие двух областей рассмотрели в правительстве РК
Большая удача, если сохранился медальон
Результаты нужны, но переформатирование важнее
Ставка на справедливость и доверие
В хаосе городской застройки Уральска разбирался Антикор
Qarmet подключится, и газ подешевеет
Пятибалльное землетрясение произошло на юге Казахстана
США хотят получить контроль над природными ресурсами Украины без гарантий её безопасности
В Уральске трое неизвестных украли деньги из терминала
Главу Синьцзянской торгово-логистической группы Шэнь Цзиньшэна встретили в кабмине
Национальная гвардия готовит военную технику к параду
В Бангкоке рухнула строящаяся многоэтажка
Списки необходимой для инвестпроектов инфраструктуры в регионах создадут в Правительстве
А ты оплатил налог на транспорт?
В МСХ – новое назначение
Көрісу – день радости, встреч и прощения
Көрісу: Праздник весны, прощения и уважения в Казахстане
На участке «Болашак» в Мангистауской области будут добывать нефть
На ремонт Дворца культуры в Атырау потратят почти миллиард тенге
Падёж скота произошёл в Актюбинской области
Путь творчества – путь новаторства
Астанчане получили национальное оповещение на телефон: что случилось
Точкой роста должен стать туризм
Мощный циклон угрожает Австралии
Современному Казахстану – поколение «лидеров служения»
Трамп может вывести американские войска из Германии
Спасибо вам за подвиг!
Столица империи Шынгыз-хана находилась на нынешней казахской земле
Возможности и силы Казахстана как средней державы
BI Group и BAZIS произвели доплату налогов после предупреждения Бектенова
Для наших мам!
В центре «Өрлеу» педагоги получают основы цифровой грамотности
В «Астана Опера» прошел концерт всемирно известного композитора и пианиста
В Атырау растет интерес к национальным видам спорта

Читайте также

Бектенов дал срок до конца года модернизировать e-Gov с зап…
Внедрение ИИ в образование обсудили в правительстве РК
Как «разговаривать» с ИИ?
ИИ за 2 дня решил проблему, над которой ученые думали 10 лет

Архив

  • [[year]]
  • [[month.label]]
  • [[day]]