論文の概要: Attributing Fair Decisions with Attention Interventions
- arxiv url: http://arxiv.org/abs/2109.03952v1
- Date: Wed, 8 Sep 2021 22:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:17:26.230274
- Title: Attributing Fair Decisions with Attention Interventions
- Title(参考訳): 注意介入による公正な判断
- Authors: Ninareh Mehrabi, Umang Gupta, Fred Morstatter, Greg Ver Steeg, Aram
Galstyan
- Abstract要約: 我々は、属性フレームワークとして活用できる注意ベースのモデルを設計する。
注意介入と注意重み操作によって、モデルの性能と公平性の両方に責任を負う特徴を特定することができる。
次に、後処理のバイアス軽減戦略を設計し、ベースラインのスイートと比較します。
- 参考スコア(独自算出の注目度): 28.968122909973975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread use of Artificial Intelligence (AI) in consequential domains,
such as healthcare and parole decision-making systems, has drawn intense
scrutiny on the fairness of these methods. However, ensuring fairness is often
insufficient as the rationale for a contentious decision needs to be audited,
understood, and defended. We propose that the attention mechanism can be used
to ensure fair outcomes while simultaneously providing feature attributions to
account for how a decision was made. Toward this goal, we design an
attention-based model that can be leveraged as an attribution framework. It can
identify features responsible for both performance and fairness of the model
through attention interventions and attention weight manipulation. Using this
attribution framework, we then design a post-processing bias mitigation
strategy and compare it with a suite of baselines. We demonstrate the
versatility of our approach by conducting experiments on two distinct data
types, tabular and textual.
- Abstract(参考訳): 医療や仮釈放決定システムなど、連続した領域における人工知能(AI)の普及は、これらの手法の公正性について精査している。
しかし、公正性の確保は、論争的な決定の根拠を監査し、理解し、守らなければならないため、しばしば不十分である。
注意機構は,意思決定の方法を考慮した特徴帰属を同時に提供しながら,公平な成果の確保に利用可能である。
この目標に向けて,属性フレームワークとして活用可能な注目モデルの設計を行う。
注意介入と注意重み操作によって、モデルの性能と公平性の両方に責任を負う特徴を特定することができる。
この属性フレームワークを使用して、後処理のバイアス軽減戦略を設計し、ベースラインのスイートと比較する。
我々は,2つの異なるデータ型である表型とテキスト型について実験を行い,このアプローチの汎用性を示す。
関連論文リスト
- Striking a Balance in Fairness for Dynamic Systems Through Reinforcement
Learning [6.814499629376316]
逐次決定を行う動的システムの公平性について検討する。
本稿では,多種多様な公平な考察と強化学習を統合するためのアルゴリズムフレームワークを提案する。
3つのケーススタディにより,従来の公正観念,長期公正観,実用性とのバランスがとれることが示された。
論文 参考訳(メタデータ) (2024-01-12T01:29:26Z) - Make Your Decision Convincing! A Unified Two-Stage Framework:
Self-Attribution and Decision-Making [24.906886146275127]
自己貢献・意思決定(SADM)として知られる統合された2段階の枠組みを提案する。
我々のフレームワークは、生成した合理性とモデル決定とのより信頼性の高いリンクを確立するだけでなく、タスク性能と合理性の品質の競争結果も達成している。
論文 参考訳(メタデータ) (2023-10-20T15:59:57Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。