論文の概要: On Explaining Proxy Discrimination and Unfairness in Individual Decisions Made by AI Systems
- arxiv url: http://arxiv.org/abs/2509.25662v1
- Date: Tue, 30 Sep 2025 01:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.388677
- Title: On Explaining Proxy Discrimination and Unfairness in Individual Decisions Made by AI Systems
- Title(参考訳): AIシステムによる個人判定におけるプロキシ識別と不公平性の説明について
- Authors: Belona Sonna, Alban Grastien,
- Abstract要約: 本稿では,個別のAI決定におけるプロキシ差別を説明するために,形式的帰納的説明を用いた新しいフレームワークを提案する。
本手法は, 保護属性に対する不適切なプロキシとして機能する特徴を同定し, 隠れた構造バイアスを明らかにする。
概念実証として,ドイツの信用データセットを例に,このフレームワークを紹介した。
- 参考スコア(独自算出の注目度): 5.220940151628734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems in high-stakes domains raise concerns about proxy discrimination, unfairness, and explainability. Existing audits often fail to reveal why unfairness arises, particularly when rooted in structural bias. We propose a novel framework using formal abductive explanations to explain proxy discrimination in individual AI decisions. Leveraging background knowledge, our method identifies which features act as unjustified proxies for protected attributes, revealing hidden structural biases. Central to our approach is the concept of aptitude, a task-relevant property independent of group membership, with a mapping function aligning individuals of equivalent aptitude across groups to assess fairness substantively. As a proof of concept, we showcase the framework with examples taken from the German credit dataset, demonstrating its applicability in real-world cases.
- Abstract(参考訳): 高度な領域における人工知能(AI)システムは、プロキシの差別、不公平性、説明可能性に関する懸念を提起する。
既存の監査は、特に構造的バイアスに根ざした場合に、なぜ不公平が生じるのかを明らかにするのに失敗することが多い。
本稿では,個別のAI決定におけるプロキシ差別を説明するために,形式的帰納的説明を用いた新しいフレームワークを提案する。
背景知識を活用することで,保護属性に対する不適切なプロキシとして機能する特徴を識別し,隠れた構造バイアスを明らかにする。
我々のアプローチの中心は、グループメンバーシップとは無関係なタスク関連特性である適性の概念であり、グループ間で等価な適性を持つ個人を即時評価するマッピング関数である。
概念実証として,ドイツの信用データセットを例に,実世界のケースに適用可能性を示す。
関連論文リスト
- Underrepresentation, Label Bias, and Proxies: Towards Data Bias Profiles for the EU AI Act and Beyond [42.710392315326104]
我々は3つの共通のデータバイアスを示し、アルゴリズムの識別に対する個人的および共同的な影響について研究する。
我々は、特定の種類のバイアスを検出するための専用メカニズムを開発し、それをデータバイアスプロファイル(DBP)と呼ぶ予備構造に組み合わせる。
この初期定式化は、どのように異なるバイアス信号が体系的に文書化されるかという概念の証明となる。
論文 参考訳(メタデータ) (2025-07-09T15:52:11Z) - Am I Being Treated Fairly? A Conceptual Framework for Individuals to Ascertain Fairness [0.7783262415147651]
我々は、自動意思決定(ADM)システムの特性として、公正性の改善を論じる。
本稿では,ADMシステムのエンドユーザーを支援する様々なツールを組み合わせることにより,公正性を確認するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2025-04-03T10:28:19Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - The Impact of Explanations on Fairness in Human-AI Decision-Making: Protected vs Proxy Features [25.752072910748716]
説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接的ではあるが間接的偏見を検出するのに役立ちます。
論文 参考訳(メタデータ) (2023-10-12T16:00:16Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fair Decision-making Under Uncertainty [1.5688552250473473]
公平性制約を考慮した縦断的検閲学習問題について検討する。
検閲情報を含む新たに考案された公正概念と,検閲の存在下での公正な予測のための一般的な枠組みが,不確実性の下での計測と差別を可能にしていることを示す。
論文 参考訳(メタデータ) (2023-01-29T05:42:39Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Towards Robust Fine-grained Recognition by Maximal Separation of
Discriminative Features [72.72840552588134]
本研究は, 粒度認識ネットワークにおけるクラス間の潜伏表現の近接性を, 敵攻撃の成功の鍵となる要因として同定する。
注意に基づく正規化機構を導入し、異なるクラスの識別潜在特徴を最大限に分離する。
論文 参考訳(メタデータ) (2020-06-10T18:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。