Искусственный интеллект
Переоценка справедливости искусственного интеллекта посредством оптимизации социального обеспечения
Securities.io поддерживает строгие редакционные стандарты и может получать компенсацию за просмотренные ссылки. Мы не являемся зарегистрированным инвестиционным консультантом, и это не инвестиционный совет. Пожалуйста, ознакомьтесь с нашим раскрытие аффилированного лица.

Поскольку системы искусственного интеллекта становятся все более распространенными и мощными, вопрос о том, как сделать их справедливыми и справедливыми, стал самой большой проблемой. От кредитования и найма сотрудников до здравоохранения и уголовного правосудия — алгоритмы ИИ теперь начали контролировать жизнь и средства к существованию отдельных лиц и сообществ. Зачастую эти алгоритмы действуют невидимым, необъяснимым и необъяснимым образом. даже предвзятый порой против исторически обездоленных групп населения.
В ответ на эти опасения сообщество исследователей, практиков и политиков объединилось, чтобы разработать «справедливые» системы искусственного интеллекта, которые относятся ко всем одинаково и не увековечивают и не усиливают социальное неравенство. Доминирующим подходом к формализации и реализации справедливости в ИИ было использование «показателей статистической четности», которые направлены на выравнивание определенных показателей производительности, таких как уровень отбора или уровень ошибок в защищенных группах.
Однако, хотя понятия справедливости, основанные на паритете, широко изучаются и принимаются в сообществе ИИ, они также сталкиваются с растущей критикой со стороны ученых, которые утверждают, что они концептуально ошибочны, практически ограничены и потенциально контрпродуктивны. Они утверждают, что простого уравнивания статистических результатов между группами недостаточно для достижения реальной справедливости, поскольку оно игнорирует фактическое влияние решений ИИ на благосостояние отдельных лиц и сообществ.
In новый документ в материалах CPAIOR 2024Группа исследователей из Университета Карнеги-Меллона и Технологического института Стивенса предлагает альтернативный подход к обеспечению справедливости ИИ, основанный на оптимизации социального обеспечения. Под руководством Джона Хукера, профессора исследования операций в Университете Карнеги-Меллона, авторы используют известную функцию социального благосостояния «альфа-справедливость», чтобы проанализировать ограничения и слепые пятна популярных показателей статистического паритета, таких как демографический паритет, уравненные шансы и коэффициент прогнозирования. паритет.
Их результаты показывают, что эти показатели паритета часто не соответствуют принципам справедливого распределения, таким как определение приоритета наименее обеспеченных или справедливое распределение благ и бремени. Во многих случаях решение «альфа-справедливости» далеко от решения паритета, поэтому эти показатели могут привести к тому, что системы ИИ будут неоптимальны как с точки зрения эффективности, так и с точки зрения справедливости.
Эти имеет большое значение для этики ИИ и усилий по созданию систем машинного обучения, которые уважают человеческие ценности и социальную справедливость. Это означает, что нам нужен более комплексный и детальный подход к алгоритмической справедливости, который выходит за рамки статистических показателей и учитывает моральные компромиссы ИИ в областях с высокими ставками: оптимизация социального благосостояния.
Понимание оптимизации социального обеспечения
По своей сути оптимизация социального благосостояния представляет собой совершенно другую парадигму осмысления и реализации справедливости в ИИ. Вместо того, чтобы сосредоточиться на выравнивании определенных показателей между группами, они делают шаг назад и рассматривают более широкое социальное влияние решений ИИ на благосостояние и благополучие людей.
Идея состоит в том, чтобы разработать системы искусственного интеллекта, которые явно нацелены на максимизацию функции социального благосостояния, которая объединяет полезности (т. е. выгоды и затраты), которые испытывают все затронутые люди, в единую меру социального блага. Согласно этому подходу, специалисты по искусственному интеллекту могут создавать алгоритмы, которые уравновешивают эти конкурирующие цели, определяя функцию социального благосостояния, которая отражает взвешенные моральные суждения об относительной важности эффективности и справедливости.
Оптимизация социального благосостояния уходит корнями в экономику благосостояния, которая имеет долгую историю рассмотрения вопросов справедливого распределения и коллективного принятия решений. Экономисты и философы предложили различные функции общественного благосостояния, которые отражают различные этические принципы и оценочные суждения, такие как утилитаризм (максимизация суммы полезности), приоритетность (придание большего веса выигрышу от полезности для наиболее обездоленных) и эгалитаризм (минимизация неравенства).
В последние годы все больше исследователей ИИ начали изучать оптимизацию социального обеспечения как способ внедрения справедливости в системы машинного обучения. Этот Работа основана на статьях Хейдари и др. под названием «Алгоритмическое принятие решений и цена справедливости». и Корбетт-Дэвис и Гоэл, который впервые представил идею использования функций социального обеспечения для учета различного воздействия решений ИИ на разных людей и группы.
Один из способов сделать это — использовать альфа-справедливость, параметрический класс функций социального благосостояния, который имеет действительно изучался в области экономики и социального выбора в течение 70 лет. Альфа-справедливость позволяет интерполировать между утилитарными и эгалитарными целями с помощью одного параметра альфа, который контролирует степень неприятия неравенства.
Когда альфа равна 0, функция общественного благосостояния сводится к классическому утилитаризму, максимизирующему сумму полезности без учета распределения. По мере увеличения альфа увеличивается вес дано в худшую сторону, и распределение становится более справедливым. В конечном итоге, когда альфа стремится к бесконечности, альфа-справедливость сходится к принципу «максимина» Ролза, заключающемуся в максимизации полезности наименее обеспеченного индивида.
В своей статье CPAIOR 2024 исследователи используют альфа-справедливость в качестве линзы для изучения трех популярных показателей статистического паритета:
- Демографический паритет
- Уравненные шансы
- Прогнозируемый паритет ставок
Они моделируют различные сценарии, в которых системе искусственного интеллекта приходится распределять ограниченный ресурс (например, кредиты, собеседования, возможности получения образования) среди группы людей с разными уровнями квалификации и функциями полезности.
Результаты удивительны. Во многих случаях распределение по альфа-справедливости существенно отличается от решений, предлагаемых с помощью показателей паритета.
Демографический паритет, который требует равных показателей отбора для всех групп, часто не учитывает тот факт, что обездоленные группы получают больше предельной полезности от выбора. Таким образом, это приводит к распределению средств, которое не является ни эффективным, ни справедливым.
Метод уравненных шансов, который сравнивает коэффициенты отбора только среди «квалифицированных» людей, работает немного лучше, но все же терпит неудачу в сценариях, где ложноотрицательные ошибки (т. е. квалифицированные люди быть отвергнутым) стоят дороже, чем ложные срабатывания.
Прогнозируемый паритет ставок, который уравнивает долю отобранных лиц, обладающих соответствующей квалификацией, имеет ограниченное применение и применим только тогда, когда количество отобранных лиц превышает количество действительно квалифицированных кандидатов.
Эти результаты показывают фундаментальные ограничения и «слепые пятна» показателей статистической четности как основного способа оценки и обеспечения алгоритмической справедливости.
Игнорируя фактическое влияние решений ИИ на благосостояние и различное влияние на разные группы, эти показатели могут привести к созданию систем, которые увековечивают или даже усугубляют существующее неравенство. Им также не хватает нормативного обоснования и последовательности, поскольку разные критерии паритета на практике часто приводят к противоречивым рекомендациям.
Напротив, оптимизация социального обеспечения обеспечивает принципиальный и единый способ найти компромисс между справедливостью и эффективностью в системах ИИ. Он направлен на то, чтобы сделать явными оценочные суждения и этические предположения при выборе функции социального обеспечения, чтобы позволить разработчикам и политикам вести более прозрачные и ответственные разговоры о распределительном влиянии алгоритмического принятия решений.
Более того, недавние работы показали, что оптимизация социального обеспечения может быть легко интегрированным в стандартный рабочий процесс машинного обучения либо на этапе постобработки, либо непосредственно в саму цель обучения.
Например, в «Алгоритмическое принятие решений и цена справедливости»" Исследователи предлагают метод регуляризации, который добавляет термин социального благосостояния к функции потерь любой модели классификации или регрессии, чтобы система могла изучить справедливые правила принятия решений, которые максимизируют как точность, так и благосостояние. Устун и др. представила метод постобработки, который принимает выходные данные любой предварительно обученной модели и находит решения, максимизирующие благосостояние, с учетом различных ограничений справедливости.
Эти технические результаты показывают, что оптимизация социального обеспечения — это осуществимый и практичный способ создания справедливых и равноправных систем ИИ. Разработчики могут использовать эти мощные методы оптимизации и пакеты программного обеспечения, основанные на четкой и вычислимой целевой функции, которая отражает нормативные соображения этой структуры, чтобы найти распределения, которые уравновешивают конкурирующие критерии.
Но реализация всего потенциала оптимизации социального обеспечения на практике также требует решения ряда сложных проблем и ограничений. Одной из самых больших является сложность выявления и построения отдельных функций полезности, которые отражают сложное, многомерное влияние решений ИИ на жизнь людей. Эти требует глубокого взаимодействия с заинтересованными сторонами и экспертами в предметной области, чтобы понять контекстуальные факторы, которые формируют предпочтения, ценности и благополучие людей.
Существуют также теоретические и философские вопросы о межличностной сопоставимости полезности, неопределенности и динамики, а также о том, как объединить отдельные полезности в коллективный показатель общественного благосостояния. Различные функции социального обеспечения делают разные предположения по этому поводу, и не существует универсального консенсуса относительно того, что является наиболее оправданным или подходящим в данном контексте.
Более того, как и при любом подходе, основанном на оптимизации, существует риск того, что цели быть максимальным могут не полностью отражать все соответствующие этические соображения или могут быть перекошенным из-за систематических ошибок и «слепых пятен» в данных и моделях, используемых для оценки полезности. Крайне важно иметь хорошо продуманные процессы участия заинтересованных сторон, прозрачность и подотчетность, чтобы гарантировать, что критерии благосостояния оптимизированы в соответствии с ценностями и приоритетами пострадавших сообществ.
Несмотря на эти проблемы, преимущества оптимизации социального обеспечения для обеспечения алгоритмической справедливости слишком велики, чтобы их игнорировать. Тем не менее, разработчики ИИ и политики могут выйти за рамки статистического паритета, используя принципиальный и гибкий способ сбалансировать справедливость и эффективность этого подхода. В конечном итоге это приведет к более целостному и последовательному понятию справедливости, основанному на благосостоянии и благополучии человека.
Нажмите здесь, чтобы узнать, как ИИ может обеспечить подлинность.
Вариант использования №1: справедливое кредитование
Чтобы продемонстрировать на практике перспективы и проблемы оптимизации социального обеспечения, давайте рассмотрим сферу алгоритмического кредитования с высокими ставками. В последние годы многие банки и финтех-компании внедрили модели машинного обучения для автоматизации и ускорения принятия кредитных решений. Эти модели используют огромные объемы личных и финансовых данных для прогнозирования вероятности дефолта заявителя на получение кредита, чтобы кредиторы могли быстрее и эффективнее принимать решения по андеррайтингу.
Однако появляется все больше свидетельств того, что эти алгоритмические системы кредитования закрепляют и усиливают исторические предубеждения и различия в доступе к кредитам. Исследования показали, что Чернокожим и латиноамериканским заемщикам чаще отказывают в кредитах или взимали более высокие процентные ставки, чем белые заемщики с аналогичной квалификацией, даже с учетом традиционных факторов риска, таких как доход, кредитный рейтинг и статус занятости.
В ответ на эти опасения некоторые кредиторы могут обратиться к методам статистического паритета, таким как демографический паритет и уравнивание шансов, чтобы смягчить предвзятость в своих моделях андеррайтинга с использованием ИИ. Идея состоит в том, чтобы уравнять процент одобрения кредита или уровень невыплаты кредита среди защищенных групп, чтобы модели одинаково относились ко всем заявителям, независимо от расы или этнической принадлежности.
Хотя эти подходы, основанные на паритете, могут показаться интуитивными, они не способны отразить сложность кредитоспособности и различное влияние доступа к кредитам на благосостояние маргинализированных сообществ. Все больше исследований показывают, что упрощенные представления о справедливости, основанные на уравнивании результатов на самом деле может иметь неприятные последствия и нанести вред самим группам предназначены защищать.
Например, примечания к статье 2018 года что обеспечение соблюдения ограничений демографического паритета в правиле принятия решений, максимизирующего полезность, обычно требует использования чувствительных переменных, таких как расовая принадлежность, как при обучении модели, так и при принятии решений. Эти подразумевает, что попытки удовлетворить ограничения четности, используя расу только во время обучения, известные как «несопоставимые процессы обучения», будут неоптимальными.
Более того, критерии справедливости, основанные на паритете, игнорируют тот факт, что вред от отказа в кредите распределены неравномерно среди населения. Для заемщиков с низкими доходами и меньшинств, которые исторически были исключены из основных финансовых услуг, быть отвергнутым кредит может иметь разрушительные последствия, загоняя их в цикл бедности и грабительских долгов. Более состоятельные и привилегированные заявители могут иметь альтернативные источники капитала и быть менее затронутым в результате принятия неблагоприятного кредитного решения.
Оптимизация социального обеспечения предлагает альтернативный подход, который напрямую включает эти различия в благосостоянии в разработку алгоритмов справедливого кредитования. Кредиторы могут разработать кредитные модели, которые максимизируют общее благосостояние, обеспечивая при этом более справедливое распределение возможностей, путем определения функции социального благосостояния, которая отражает относительные затраты и выгоды от доступа к кредитам для различных лиц и групп.
Например, рассмотрим функцию социального обеспечения, которая отдает приоритет благосостоянию наименее обеспеченных заявителей, придавая больший вес выгодам от полезности заемщиков с низкими доходами и меньшинствами. Эти могли бы быть формализованным использование функции альфа-справедливости с умеренно высоким значением альфа, что указывает на явное предпочтение справедливости над эффективностью.
В соответствии с этой целью социального обеспечения оптимальная политика кредитования, вероятно, будет включать в себя предоставление большего количества кредитов маргинализированным группам, даже если их прогнозируемые проценты погашения в среднем несколько ниже. Эти Причина в том, что рост благосостояния от кредитования этих малообеспеченных сообществ (например, предоставление им возможности купить дом, начать бизнес или получить образование) может перевесить возросший риск дефолта с социальной точки зрения.
Конечно, внедрение такой системы кредитования, максимизирующей благосостояние, на практике потребует преодоления значительных проблем с данными и моделированием. Кредиторам необходимо будет собирать подробные данные о социально-экономических характеристиках и финансовых потребностях претендентов на получение кредита, а также о последующем влиянии доступа к кредитам на их благосостояние с течением времени. Им также необходимо будет взаимодействовать с пострадавшими сообществами, чтобы гарантировать, что критерии благосостояния оптимизированы в соответствии с их ценностями и приоритетами.
Кроме того, могут возникнуть важные правовые и нормативные соображения относительно использования защищенной информации о классе (например, раса, пол, возраст) для принятия решений о кредитовании, даже если цель состоит в обеспечении справедливости. Политикам необходимо будет предоставить четкие рекомендации о том, как антидискриминационные законы применяются в контексте оптимизации социального обеспечения, и создать безопасные гавани для кредиторов, которые используют эти методы прозрачным и подотчетным образом.
Несмотря на трудности, оно того стоит. Оптимизация социального обеспечения может способствовать расширению финансовой доступности и сокращению расового разрыва в благосостоянии, позволяя кредиторам принимать более целостные и учитывающие вопросы благосостояния кредитные решения, перенаправлять поток капитала в традиционно недостаточно обслуживаемые сообщества и расширять их экономические возможности. Это также может обеспечить более принципиальный и прозрачный способ найти компромисс между справедливостью и эффективностью кредитования, основанный на реальном влиянии на жизнь заемщиков.
Взгляд в перспективе
Как показывает пример кредитования, оптимизация социального благосостояния — это граница алгоритмической справедливости, которая выходит за рамки статистического паритета и ведет к более целостному и консеквенциалистскому понятию справедливости, основанному на человеческом благосостоянии и благополучии.
Этот подход может помочь разработчикам ИИ и политикам принимать более принципиальные и ответственные решения о разработке и развертывании алгоритмических систем в областях с высокими ставками. Они могут сделать это, определив и максимизировав функцию социального благосостояния, которая отражает взвешенные моральные суждения о распределении благ и бремени.
Однако реализация всего потенциала оптимизации социального обеспечения на практике потребует большой междисциплинарной работы. Ученым-компьютерщикам и исследователям этики искусственного интеллекта придется работать с экономистами, философами, юристами и заинтересованными сообществами, чтобы решить нормативные и технические проблемы определения и расчета функций социального благосостояния. Эти включает в себя сложные вопросы, касающиеся измерения и агрегирования индивидуальной полезности, неопределенности и динамики, а также правильного компромисса между эффективностью и справедливостью в различных контекстах.
Кроме того, политикам и регулирующим органам необходимо предоставить больше рекомендаций и создать среду, в которой можно будет разрабатывать и внедрять ИИ, ориентированный на благосостояние. Эти может означать обновление существующих антидискриминационных законов и правил для решения проблемы оптимизации социального обеспечения и создания новых рамок управления и механизмов надзора для обеспечения прозрачности, подотчетности и участия общественности в разработке и использовании этих систем.
В конечном счете, переход к оптимизации социального обеспечения с помощью ИИ должен сопровождаться путем более широких усилий по устранению основного структурного неравенства и дисбаланса сил, которые определяют развитие и влияние технологий в обществе.
Алгоритмические меры по обеспечению справедливости, независимо от того, насколько хорошо они разработаны, не могут заменить более фундаментальные реформы, направленные на продвижение социальной и экономической справедливости, такие как инвестиции в образование, здравоохранение, жилье и инфраструктуру в маргинализированных сообществах.
Как говорят Хукер и его коллеги в своей статье CPAIOR 2024:
«Оптимизация социального обеспечения открывает новые способы разработки справедливых и хороших алгоритмических систем. Еще предстоит много работы быть сделано для разработки и внедрения этих подходов, но мы считаем, что они являются шагом вперед для этики ИИ. Мы можем перейти к более целостному и морально серьезному способу построения систем машинного обучения, которые будут служить всему обществу, если сформулировать наши представления о справедливости на языке экономики благосостояния и открыто разобраться с распределительными последствиями наших технологий».
В целом, чтобы добиться по-настоящему справедливого ИИ, мы должны обеспечить тщательное тестирование и доработку этих подходов в реальных сценариях, воплощая приверженность справедливости и общественному благополучию.
Нажмите здесь, чтобы узнать все об инвестициях в искусственный интеллект.