論文の概要: Fairness Metrics: A Comparative Analysis
- arxiv url: http://arxiv.org/abs/2001.07864v2
- Date: Mon, 27 Jan 2020 17:06:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 07:15:27.704172
- Title: Fairness Metrics: A Comparative Analysis
- Title(参考訳): Fairness Metrics: 比較分析
- Authors: Pratyush Garg, John Villasenor and Virginia Foggo
- Abstract要約: 本稿では、一般的な数学的枠組みを用いて、最も広く使われている公正度指標について述べるとともに、それらの関係に関する新たな結果を示す。
ここで提示された結果は、専門家と非スペシャリストの両方を、その適用と目標に最も適したメトリクスを特定するより良い位置に配置するのに役立ちます。
- 参考スコア(独自算出の注目度): 1.7188280334580195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness is receiving significant attention in the academic and
broader literature due to the increasing use of predictive algorithms,
including those based on artificial intelligence. One benefit of this trend is
that algorithm designers and users have a growing set of fairness measures to
choose from. However, this choice comes with the challenge of identifying how
the different fairness measures relate to one another, as well as the extent to
which they are compatible or mutually exclusive. We describe some of the most
widely used fairness metrics using a common mathematical framework and present
new results on the relationships among them. The results presented herein can
help place both specialists and non-specialists in a better position to
identify the metric best suited for their application and goals.
- Abstract(参考訳): アルゴリズムの公正性は、人工知能に基づくものを含む予測アルゴリズムの利用の増加により、学術的、より広範な文献で大きな注目を集めている。
このトレンドの利点の1つは、アルゴリズムデザイナーとユーザーが選択すべき公正度対策が増えていることだ。
しかしながら、この選択は、異なるフェアネス測度が互いにどのように関連しているか、またそれらが相互に互換性があるか、あるいは相互に排他的であるかを特定するという課題から来る。
本稿では,共通数学的枠組みを用いて,最も広く利用されている公平度指標のいくつかを説明し,それらの関係に関する新しい結果を示す。
ここで提示された結果は、専門家と非スペシャリストの両方をより良い位置に配置し、その適用と目標に最も適したメトリクスを特定するのに役立つ。
関連論文リスト
- Quantifying User Coherence: A Unified Framework for Cross-Domain Recommendation Analysis [69.37718774071793]
本稿では,レコメンデーションシステムを理解するための新しい情報理論手法を提案する。
9つのデータセットで7つのレコメンデーションアルゴリズムを評価し、測定値と標準的なパフォーマンス指標の関係を明らかにする。
論文 参考訳(メタデータ) (2024-10-03T13:02:07Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Disparate Outcomes of Content Recommendation Algorithms with
Distributional Inequality Metrics [5.74271110290378]
我々は,経済学,分布不平等指標,およびTwitterのアルゴリズム・タイムラインにおけるコンテンツ露出の差異を測定する能力から,一連の指標を評価した。
これらのメトリクスを用いて、ユーザ間の歪んだ結果に強く寄与するコンテンツ提案アルゴリズムを特定できることを示す。
論文 参考訳(メタデータ) (2022-02-03T14:41:39Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - A Systematic Approach to Group Fairness in Automated Decision Making [0.0]
本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
論文 参考訳(メタデータ) (2021-09-09T12:47:15Z) - Opportunistic Multi-aspect Fairness through Personalized Re-ranking [5.8562079474220665]
複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
論文 参考訳(メタデータ) (2020-05-21T04:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。