Как необратимые доказательства могут сделать ИИ более справедливым

Как необратимые доказательства могут сделать ИИ более справедливым

Мнение: Роб Виглионе, сооснователь и генеральный директор Horizen Labs

Можно ли доверять ИИ, что он будет беспристрастным? Недавнее исследование предполагает, что все не так просто. К сожалению, предвзятость — это не просто ошибка, это устойчивая особенность, если отсутствуют надлежащие криптографические ограничения.

Исследование, проведенное Имперским колледжем Лондона в сентябре 2024 года, демонстрирует, как необратимые доказательства (ZKPs) могут помочь компаниям верифицировать, что их модели машинного обучения (ML) относятся ко всем демографическим группам одинаково, оставаясь при этом конфиденциальными.

Необратимые доказательства — это криптографические методы, позволяющие одной стороне доказать другой, что утверждение истинно, не раскрывая никакой дополнительной информации, кроме самой истины утверждения. Однако при определении «справедливости» мы открываем совершенно новую проблему.

Предвзятость в машинном обучении

С моделями машинного обучения предвзятость проявляется по-разному. Это может привести к тому, что служба оценки кредитоспособности будет оценивать человека по-разному в зависимости от кредитных оценок его друзей и сообществ, что может быть дискриминационным по своей природе. Это также может привести к тому, что генераторы изображений на базе ИИ будут по-разному отображать Папу Римского и древних греков, как это сделала система Gemini от Google в прошлом году.

Обнаружить несправедливую модель машинного обучения в реальном мире легко. Если модель лишает людей кредитов из-за их окружения — это дискриминация. Если она переписывает историю или по-разному относится к определённым демографическим группам в угоду равенству — это также дискриминация. Оба сценария подрывают доверие к этим системам.

Рассмотрим банк, использующий модель ML для одобрения кредитов. Необратимые доказательства могут доказать, что модель не предвзята к какой-либо демографической группе, не раскрывая при этом конфиденциальные данные клиентов или служебную информацию модели. Используя ZK и ML, банки могут продемонстрировать, что они не систематически дискриминируют какую-либо расовую группу. Это доказательство могло бы быть реальным и постоянным в реальном времени по сравнению с сегодняшними неэффективными правительственными проверками частных данных.

Идеальная модель ML? Та, которая не изменяет историю и не координируется по-разному людей на основании их происхождения. ИИ должен следовать законам против дискриминации, таким как Закон о гражданских правах в Америке 1964 года. Проблема заключается в том, чтобы встроить это в ИИ и сделать его проверяемым.

Необратимые доказательства предоставляют технический путь для обеспечения этого соблюдения.

ИИ имеет предвзятость (но это можно исправить)

Работая с машинным обучением, мы должны быть уверены, что любые подтверждения справедливости сохранят конфиденциальность подлежащих моделей ML и учебных данных. Они должны защищать интеллектуальную собственность и конфиденциальность пользователей, обеспечивая при этом достаточный доступ для того, чтобы пользователи знали, что их модели не дискриминируют.

Это непростая задача. Есть проверяемое решение при помощи необратимых доказательств.

Zero-Knowledge Machine Learning (ZKML) — это способ использования необратимых доказательств для проверки соответствия моделей ML их заявленным характеристикам. ZKML соединяет криптографию необратимого доказательства с машинным обучением, чтобы создать системы, которые могут проверять свойства ИИ, не раскрывая базовые модели или данные. Мы также можем использовать необратимые доказательства, чтобы обнаружить модели ML, которые относятся ко всем одинаково и справедливо.

Недавнее: Изучение плюсов и минусов KYC

Ранее использование необратимых доказательств для подтверждения справедливости ИИ было крайне ограничено, так как оно могло сосредоточиться только на одной фазе конвейера ML. Это позволяло недобросовестным поставщикам моделей формировать наборы данных, которые будут удовлетворять требованиям справедливости, даже если модель не будет удовлетворять этим требованиям. Также необратимые доказательства создавали нереалистичные вычислительные запросы и длительные ожидания результата справедливости.

В последние месяцы фреймворки необратимых доказательств сделали возможным их масштабирование, чтобы определить сквозную справедливость моделей с десятками миллионов параметров и сделать это доказанно безопасно.

Триллионовый вопрос: как мы измеряем, справедлива ли модель ИИ?

Давайте рассмотрим три самых распространённых определения групповая справедливости: демографический паритет, равенство возможностей и предсказательное равенство.

Демографический паритет означает, что вероятность определенного прогноза одинакова для разных групп, таких как раса или пол. Это измерение часто используется департаментами разнообразия, равенства и инклюзии для отражения демографии населения в штате компании. Это не идеальная метрика справедливости для моделей ML, так как ожидание одинаковых результатов для каждой группы нереалистично.

Равенство возможностей легко для понимания. Оно обеспечивает всем группам одинаковую возможность получить положительный результат, при условии, что они равноправно квалифицированы. Это не оптимизация для результатов, а скорее, чтобы каждая демографическая группа имела одинаковый шанс получить работу или кредит.

Предсказательное равенство измеряет, делает ли модель ML прогнозы с одинаковой точностью для различных демографических групп, чтобы никто не был наказан просто за принадлежность к группе.

В обоих случаях модель ML не пытается исказить данные в угоду равенству, а только чтобы гарантировать, что к группам не применяются никакие формы дискриминации. Это является разумным решением.

Справедливость становится стандартом, так или иначе

За последний год правительство США и других стран выпустило заявления и требования по справедливости ИИ и защите общественности от предвзятости моделей ML. С новой администрацией в США подход к справедливости ИИ, скорее всего, будет направлен на равенство возможностей, отдаляясь от единственного акцентирования на равенстве.

По мере изменения политического ландшафта изменяются и определения справедливости в ИИ, переходя от однофокусных подходов на равенство к фокусированию на равенство возможностей. Мы приветствуем модели ML, которые относятся ко всем одинаково без искажения данных. Необратимые доказательства могут служить непроницаемым способом проверки того, что модели ML делают это без раскрытия личных данных.

Хотя необратимые доказательства сталкивались с множеством проблем с масштабируемостью на протяжении многих лет, технологии наконец-то стали более доступными для широкого использования. Мы можем использовать необратимые доказательства для проверки целостности учебных данных, защиты конфиденциальности и обеспечения того, чтобы используемые нами модели отвечали заявленным требованиям.

Поскольку модели ML становятся более интегрированными в нашу повседневную жизнь и наши будущие карьерные перспективы, поступления в колледжи и ипотеки зависят от них, мы могли бы использовать немного больше уверенности в том, что ИИ относится к нам справедливо. Сможем ли мы все договориться о определении справедливости, однако, это совершенно другой вопрос.

Мнение: Роб Виглионе, сооснователь и генеральный директор Horizen Labs.

Эта статья носит исключительно информационный характер и не предназначена как юридический или инвестиционный совет. Мнения, изложенные здесь, принадлежат исключительно автору и не обязательно отражают или представляют взгляды и мнения dc.finance.