論文の概要: On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion
- arxiv url: http://arxiv.org/abs/2009.04383v1
- Date: Wed, 9 Sep 2020 16:04:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 08:37:44.395117
- Title: On the Identification of Fair Auditors to Evaluate Recommender Systems
based on a Novel Non-Comparative Fairness Notion
- Title(参考訳): 新規な非比較フェアネス概念に基づく推薦システム評価のための公正監査者の同定について
- Authors: Mukund Telukunta and Venkata Sriram Siddhardh Nadendla
- Abstract要約: 意思決定支援システムは、多くの実践的な展開の文脈で差別的であることが判明した。
非比較正義の原理に基づく新しい公正概念を提案する。
提案したフェアネスの概念は、比較フェアネスの概念の観点からも保証を提供することを示す。
- 参考スコア(独自算出の注目度): 1.116812194101501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision-support systems are information systems that offer support to
people's decisions in various applications such as judiciary, real-estate and
banking sectors. Lately, these support systems have been found to be
discriminatory in the context of many practical deployments. In an attempt to
evaluate and mitigate these biases, algorithmic fairness literature has been
nurtured using notions of comparative justice, which relies primarily on
comparing two/more individuals or groups within the society that is supported
by such systems. However, such a fairness notion is not very useful in the
identification of fair auditors who are hired to evaluate latent biases within
decision-support systems. As a solution, we introduce a paradigm shift in
algorithmic fairness via proposing a new fairness notion based on the principle
of non-comparative justice. Assuming that the auditor makes fairness
evaluations based on some (potentially unknown) desired properties of the
decision-support system, the proposed fairness notion compares the system's
outcome with that of the auditor's desired outcome. We show that the proposed
fairness notion also provides guarantees in terms of comparative fairness
notions by proving that any system can be deemed fair from the perspective of
comparative fairness (e.g. individual fairness and statistical parity) if it is
non-comparatively fair with respect to an auditor who has been deemed fair with
respect to the same fairness notions. We also show that the converse holds true
in the context of individual fairness. A brief discussion is also presented
regarding how our fairness notion can be used to identify fair and reliable
auditors, and how we can use them to quantify biases in decision-support
systems.
- Abstract(参考訳): 決定支援システムは、司法、不動産、銀行など様々な分野で人々の決定を支援する情報システムである。
近年、これらの支援システムは多くの実践的な展開の文脈において差別的であることが判明している。
これらのバイアスを評価し緩和しようとする試みにおいて、アルゴリズム的公平性文学は、比較正義の概念を用いて育まれてきた。
しかし、このような公平性の概念は、意思決定支援システム内の潜伏バイアスを評価するために雇われた公正監査者の識別にはあまり役に立たない。
解法として,非比較正義の原理に基づく新しい公正概念を提案することにより,アルゴリズムフェアネスのパラダイムシフトを導入する。
提案した公正性概念は,意思決定支援システムの所望特性に基づいて公正性評価を行うと仮定して,システムの結果と監査者の所望の結果とを比較する。
提案したフェアネス概念は、同じフェアネス概念に関してフェアと見なされた監査者に対して、比較フェアネス(例えば、個人フェアネスと統計的パリティ)の観点から、いかなるシステムでもフェアとみなすことができることを証明し、比較フェアネス概念の観点で保証を提供することを示す。
また、逆は個人的公正の文脈で真であることを示す。
公正さの概念が公正で信頼性の高い監査者を特定するためにどのように使えるのか、意思決定支援システムにおけるバイアスの定量化にどのように使用できるのか、という簡単な議論も行われている。
関連論文リスト
- Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems [0.4297070083645048]
本稿では,データ駆動型AIシステムの公平性を測定するための新しいフェアネススコアを提案する。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
論文 参考訳(メタデータ) (2022-01-10T15:45:12Z) - Non-Comparative Fairness for Human-Auditing and Its Relation to
Traditional Fairness Notions [1.8275108630751837]
本稿では,非比較正義の原理に基づく新たな公正概念を提案する。
比較公正性の観点から,任意のMLSを公平とみなすことができることを示す。
また、逆は個々人の公平さの文脈で真であることを示す。
論文 参考訳(メタデータ) (2021-06-29T20:05:22Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。