論文の概要: The Impact of Explanations on Fairness in Human-AI Decision-Making:
Protected vs Proxy Features
- arxiv url: http://arxiv.org/abs/2310.08617v1
- Date: Thu, 12 Oct 2023 16:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 16:15:08.644702
- Title: The Impact of Explanations on Fairness in Human-AI Decision-Making:
Protected vs Proxy Features
- Title(参考訳): 説明が人間-AI意思決定の公正性に及ぼす影響:保護とプロキシの特徴
- Authors: Navita Goyal, Connor Baumler, Tin Nguyen, and Hal Daum\'e III
- Abstract要約: 説明は、人間とAIチームがより公平な意思決定のバイアスに対処するのに役立ちます。
モデルフェアネスに対する参加者の認識に及ぼす保護的・代理的特徴の有無の影響について検討した。
説明は直接バイアスを検出するのに役立つが、間接バイアスは検出しない。
- 参考スコア(独自算出の注目度): 8.360372218415423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems have been known to amplify biases in real world data. Explanations
may help human-AI teams address these biases for fairer decision-making.
Typically, explanations focus on salient input features. If a model is biased
against some protected group, explanations may include features that
demonstrate this bias, but when biases are realized through proxy features, the
relationship between this proxy feature and the protected one may be less clear
to a human. In this work, we study the effect of the presence of protected and
proxy features on participants' perception of model fairness and their ability
to improve demographic parity over an AI alone. Further, we examine how
different treatments -- explanations, model bias disclosure and proxy
correlation disclosure -- affect fairness perception and parity. We find that
explanations help people detect direct biases but not indirect biases.
Additionally, regardless of bias type, explanations tend to increase agreement
with model biases. Disclosures can help mitigate this effect for indirect
biases, improving both unfairness recognition and the decision-making fairness.
We hope that our findings can help guide further research into advancing
explanations in support of fair human-AI decision-making.
- Abstract(参考訳): AIシステムは、現実世界のデータにバイアスを増幅することが知られている。
説明は、人間とAIチームがより公平な意思決定のためにこれらのバイアスに対処するのに役立ちます。
通常、説明は健全な入力機能に焦点を当てる。
モデルが保護されたグループに対して偏りがある場合、このバイアスを示す特徴を含む場合もあるが、プロキシ機能によってバイアスが実現されると、このプロキシ機能と保護されたグループとの関係は人間には明らかでない。
本研究では,保護的特徴とプロキシ的特徴が,モデルフェアネスに対する参加者の認識と,AI単独による人口比率向上能力に及ぼす影響について検討する。
さらに, 異なる治療—説明, モデルバイアス開示, プロキシ相関開示—がフェアネス知覚とパリティにどのように影響するかを検討する。
説明は直接バイアスを検出するのに役立つが、間接バイアスは検出しない。
さらに、バイアスの種類にかかわらず、説明はモデルのバイアスとの一致を増加させる傾向がある。
開示は間接バイアスに対するこの効果を緩和し、不公平認識と意思決定公正の両方を改善するのに役立つ。
我々はこの発見が、公正な人間-AI意思決定を支援するための説明の進展に関するさらなる研究に役立つことを願っている。
関連論文リスト
- The Duet of Representations and How Explanations Exacerbate It [0.0]
アルゴリズムは、人間の知覚における特徴とラベルの関係の因果表現に影響を及ぼす。
説明は、人間の注意を対立する特徴に向け、他の関連する特徴から遠ざけることができる。
これは因果的過剰寄与を引き起こし、人間の情報処理に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-02-13T11:18:27Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - Explanations, Fairness, and Appropriate Reliance in Human-AI Decision-Making [10.049226270783562]
特徴に基づく説明がAIによる意思決定の分配的公平性に及ぼす影響について検討する。
以上の結果から,説明は公正感に影響を及ぼし,人間のAI推奨に固執する傾向に影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2022-09-23T19:10:59Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。