論文の概要: Fairness-aware Summarization for Justified Decision-Making
- arxiv url: http://arxiv.org/abs/2107.06243v1
- Date: Tue, 13 Jul 2021 17:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 15:32:50.303897
- Title: Fairness-aware Summarization for Justified Decision-Making
- Title(参考訳): 正当化意思決定のための公平性を考慮した要約
- Authors: Moniba Keymanesh, Tanya Berger-Wolf, Micha Elsner, Srinivasan
Parthasarathy
- Abstract要約: テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
- 参考スコア(独自算出の注目度): 16.47665757950391
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many applications such as recidivism prediction, facility inspection, and
benefit assignment, it's important for individuals to know the
decision-relevant information for the model's prediction. In addition, the
model's predictions should be fairly justified. Essentially, decision-relevant
features should provide sufficient information for the predicted outcome and
should be independent of the membership of individuals in protected groups such
as race and gender. In this work, we focus on the problem of (un)fairness in
the justification of the text-based neural models. We tie the explanatory power
of the model to fairness in the outcome and propose a fairness-aware
summarization mechanism to detect and counteract the bias in such models. Given
a potentially biased natural language explanation for a decision, we use a
multi-task neural model and an attribution mechanism based on integrated
gradients to extract the high-utility and discrimination-free justifications in
the form of a summary. The extracted summary is then used for training a model
to make decisions for individuals. Results on several real-world datasets
suggests that our method: (i) assists users to understand what information is
used for the model's decision and (ii) enhances the fairness in outcomes while
significantly reducing the demographic leakage.
- Abstract(参考訳): recidivism prediction, facility inspection, benefit assignmentといった多くのアプリケーションでは、個人がモデル予測の意思決定に関連する情報を知ることが重要である。
さらに、モデルの予測はかなり正当化されるべきである。
本質的に、意思決定に関連する特徴は、予測された結果に十分な情報を提供し、人種や性別のような保護されたグループ内の個人のメンバーシップから独立すべきである。
本研究では,テキストベースニューラルモデルの正当化における不公平性の問題に焦点をあてる。
モデルの説明力と結果の公平性とを結びつけるとともに,そのバイアスを検出し,対処するための公平性を考慮した要約機構を提案する。
決定のための潜在的なバイアスのある自然言語の説明を考えると、我々は多タスクニューラルモデルと統合勾配に基づく帰属機構を用いて、要約の形で高実用性と差別なしの正当化を抽出する。
抽出された要約は、個人のための決定を行うためのモデルをトレーニングするために使用される。
i)モデルの決定にどの情報が使われているかを理解するのを支援し、(ii)人口統計学的漏洩を著しく減少させながら、結果の公平性を高める。
関連論文リスト
- Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Rationalizing Predictions by Adversarial Information Calibration [65.19407304154177]
我々は2つのモデルを共同で訓練する: 1つは、正確だがブラックボックスな方法でタスクを解く典型的なニューラルモデルであり、もう1つは、予測の理論的根拠を付加するセレクタ・予測モデルである。
我々は,2つのモデルから抽出した情報を,それらの違いが欠落した特徴や過度に選択された特徴の指標であるように校正するために,敵対的手法を用いる。
論文 参考訳(メタデータ) (2023-01-15T03:13:09Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Learning from the Best: Rationalizing Prediction by Adversarial
Information Calibration [39.685626118667074]
2つのモデルを共同でトレーニングする。1つは手前のタスクを正確だがブラックボックスな方法で解く典型的なニューラルモデルであり、もう1つはセレクタ-予測モデルであり、予測の根拠も生み出す。
両モデルから抽出した情報の校正には,逆数に基づく手法を用いる。
自然言語タスクには, 言語モデルに基づく正規化子を用いて, 流線型論理の抽出を促進することを提案する。
論文 参考訳(メタデータ) (2020-12-16T11:54:15Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Fairness-Aware Learning with Prejudice Free Representations [2.398608007786179]
本稿では,潜在性識別特徴を効果的に識別し,治療できる新しいアルゴリズムを提案する。
このアプローチは、モデルパフォーマンスを改善するために差別のない機能を集めるのに役立つ。
論文 参考訳(メタデータ) (2020-02-26T10:06:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。