論文の概要: Argumentative Debates for Transparent Bias Detection [Technical Report]
- arxiv url: http://arxiv.org/abs/2508.04511v1
- Date: Wed, 06 Aug 2025 14:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.775995
- Title: Argumentative Debates for Transparent Bias Detection [Technical Report]
- Title(参考訳): 透明バイアス検出のための断定的議論 [技術報告]
- Authors: Hamed Ayoobi, Nico Potyka, Anna Rapberger, Francesca Toni,
- Abstract要約: 本稿では,個人に対する偏見の存在に関する議論に依拠して,新たな解釈可能な,説明可能なバイアス検出手法を提案する。
本手法は, 形式的および計算的議論から得られた手法に基づいて, 周辺地域の偏見に関する議論から導かれる。
我々は,本手法の形式的,定量的,質的な評価を行い,その強度と解釈可能性,説明可能性を強調した。
- 参考スコア(独自算出の注目度): 18.27485896306961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of AI systems in society grows, addressing potential biases that emerge from data or are learned by models is essential to prevent systematic disadvantages against specific groups. Several notions of (un)fairness have been proposed in the literature, alongside corresponding algorithmic methods for detecting and mitigating unfairness, but, with very few exceptions, these tend to ignore transparency. Instead, interpretability and explainability are core requirements for algorithmic fairness, even more so than for other algorithmic solutions, given the human-oriented nature of fairness. In this paper, we contribute a novel interpretable, explainable method for bias detection relying on debates about the presence of bias against individuals, based on the values of protected features for the individuals and others in their neighbourhoods. Our method builds upon techniques from formal and computational argumentation, whereby debates result from arguing about biases within and across neighbourhoods. We provide formal, quantitative, and qualitative evaluations of our method, highlighting its strengths in performance against baselines, as well as its interpretability and explainability.
- Abstract(参考訳): 社会におけるAIシステムの利用が増えるにつれて、特定のグループに対する体系的な不利を防ぐために、データから生まれる潜在的なバイアスやモデルによって学習されるバイアスに対処することが不可欠である。
不公平性(un)fairness)のいくつかの概念は、不公平性を検出し緩和するアルゴリズム的手法とともに、文献で提案されているが、例外は少ないが、これらは透明性を無視する傾向がある。
その代わり、解釈可能性と説明可能性は、人間指向の公正性を考えると、他のアルゴリズム的ソリューションよりも、アルゴリズム的公正性のコア要件である。
本稿では, 近隣の個人や他者に対する保護的特徴の価値観に基づいて, 個人に対する偏見の有無に関する議論に依拠する, 解釈可能な, 説明可能なバイアス検出手法を提案する。
本手法は, 形式的および計算的議論から得られた手法に基づいており, 周辺地域の偏見に関する議論の結果である。
我々は,本手法の形式的,定量的,定性的な評価を行い,ベースラインに対する性能の強さと解釈可能性,説明可能性を強調した。
関連論文リスト
- Explanations as Bias Detectors: A Critical Study of Local Post-hoc XAI Methods for Fairness Exploration [5.113545724516812]
本稿では、不公平を検知し、解釈するために、説明可能性法をどのように活用するかを考察する。
本研究では,局所的なポストホックな説明手法を統合し,公平性に関する洞察を導出するパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:03:18Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Advancing Fairness in Natural Language Processing: From Traditional Methods to Explainability [0.9065034043031668]
この論文は、NLPシステムにおける株式と透明性の必要性に対処している。
高リスクNLPアプリケーションにおけるバイアスを軽減する革新的なアルゴリズムを導入している。
また、トランスフォーマーモデルの概念を特定し、ランク付けするモデルに依存しない説明可能性法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:38:58Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Identifying Reasons for Bias: An Argumentation-Based Approach [2.9465623430708905]
そこで本研究では, 類似した個人と比較して, 個人が別々に分類される理由を決定するための, モデルに依存しない議論に基づく新しい手法を提案する。
フェアネス文献でよく用いられる2つのデータセットを用いて本手法の評価を行い,バイアスの同定に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-25T09:47:15Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。