論文の概要: Loss-Aversively Fair Classification
- arxiv url: http://arxiv.org/abs/2105.04273v1
- Date: Mon, 10 May 2021 11:19:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 19:59:07.219261
- Title: Loss-Aversively Fair Classification
- Title(参考訳): Loss-Aversively Fair 分類
- Authors: Junaid Ali, Muhammad Bilal Zafar, Adish Singla, Krishna P. Gummadi
- Abstract要約: 我々は、損失回避更新と呼ぶ公平な更新の概念を提案する。
Loss-averseアップデートは、更新を制約し、現状と比較して被験者に改善された結果をもたらす。
非識別的分類器を訓練するための既存の尺度と、我々のプロキシ対策をどのように組み合わせることができるかを示す。
- 参考スコア(独自算出の注目度): 35.69508830742005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of algorithmic (learning-based) decision making in scenarios that
affect human lives has motivated a number of recent studies to investigate such
decision making systems for potential unfairness, such as discrimination
against subjects based on their sensitive features like gender or race.
However, when judging the fairness of a newly designed decision making system,
these studies have overlooked an important influence on people's perceptions of
fairness, which is how the new algorithm changes the status quo, i.e.,
decisions of the existing decision making system. Motivated by extensive
literature in behavioral economics and behavioral psychology (prospect theory),
we propose a notion of fair updates that we refer to as loss-averse updates.
Loss-averse updates constrain the updates to yield improved (more beneficial)
outcomes to subjects compared to the status quo. We propose tractable proxy
measures that would allow this notion to be incorporated in the training of a
variety of linear and non-linear classifiers. We show how our proxy measures
can be combined with existing measures for training nondiscriminatory
classifiers. Our evaluation using synthetic and real-world datasets
demonstrates that the proposed proxy measures are effective for their desired
tasks.
- Abstract(参考訳): 人間の生活に影響を与えるシナリオにおけるアルゴリズムによる(学習に基づく)意思決定の使用は、性別や人種などの繊細な特徴に基づいて被験者を差別するなど、潜在的な不公平性に対する意思決定システムの研究を動機付けている。
しかし、新たに設計された意思決定システムの公平性を評価する際、これらの研究は人々の公平性に対する認識に重要な影響を見落としており、新しいアルゴリズムが現状、すなわち既存の意思決定システムの決定を変える方法である。
行動経済学と行動心理学(プロスペクト理論)の広範な文献に動機づけられ、我々は「損失回避更新」と呼ぶ公正な更新の概念を提案する。
Loss-averseアップデートは、ステータスクォーと比較して、改善された(より有益な)結果をもたらす更新を主題に制限する。
我々は,この概念を様々な線形および非線形分類器の訓練に組み込むことのできる,扱いやすい代理尺度を提案する。
非識別的分類器を訓練するための既存の尺度と、我々のプロキシ対策をどのように組み合わせることができるかを示す。
合成および実世界のデータセットを用いた評価は,提案手法が望ましいタスクに有効であることを示す。
関連論文リスト
- One Model Many Scores: Using Multiverse Analysis to Prevent Fairness Hacking and Evaluate the Influence of Model Design Decisions [4.362723406385396]
設計と評価の決定の公平さをよりよく理解するために,多変量解析をどのように利用できるかを示す。
結果から,システム評価に関する決定が,同じモデルに対して,極めて異なる公平度指標を導出する可能性を強調した。
論文 参考訳(メタデータ) (2023-08-31T12:32:43Z) - Better Understanding Differences in Attribution Methods via Systematic Evaluations [57.35035463793008]
モデル決定に最も影響を及ぼす画像領域を特定するために、ポストホック属性法が提案されている。
本稿では,これらの手法の忠実度をより確実に評価するための3つの新しい評価手法を提案する。
これらの評価手法を用いて、広範囲のモデルにおいて広く用いられている属性手法の長所と短所について検討する。
論文 参考訳(メタデータ) (2023-03-21T14:24:58Z) - Counterfactual Fair Opportunity: Measuring Decision Model Fairness with
Counterfactual Reasoning [5.626570248105078]
本研究は,不注意条件下での公正な場合において,反実的推論を用いて不公平なモデル行動を明らかにすることを目的とする。
対物フェアという対物機会の対物バージョンを定義し、対物サンプルのセンシティブな情報を分析する2つの新しい指標を紹介した。
論文 参考訳(メタデータ) (2023-02-16T09:13:53Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。