論文の概要: Understanding Accuracy-Fairness Trade-offs in Re-ranking through Elasticity in Economics
- arxiv url: http://arxiv.org/abs/2504.14991v1
- Date: Mon, 21 Apr 2025 09:41:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:25:25.977999
- Title: Understanding Accuracy-Fairness Trade-offs in Re-ranking through Elasticity in Economics
- Title(参考訳): 経済の弾力性による再評価における正確性と公正性のトレードオフの理解
- Authors: Chen Xu, Jujia Zhao, Wenjie Wang, Liang Pang, Jun Xu, Tat-Seng Chua, Maarten de Rijke,
- Abstract要約: 公平さはタスクの再ランク付けにおいてますます重要な要素である。
正確性と公正性のトレードオフは、商品税の移転プロセスの結合と平行である。
評価フレームワークとしてElastic Fairness Curve (EF-Curve)を導入する。
また,等級間距離の調整に弾性計算を利用する等級アルゴリズムであるElasticRankを提案する。
- 参考スコア(独自算出の注目度): 96.68144350976637
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness is an increasingly important factor in re-ranking tasks. Prior work has identified a trade-off between ranking accuracy and item fairness. However, the underlying mechanisms are still not fully understood. An analogy can be drawn between re-ranking and the dynamics of economic transactions. The accuracy-fairness trade-off parallels the coupling of the commodity tax transfer process. Fairness considerations in re-ranking, similar to a commodity tax on suppliers, ultimately translate into a cost passed on to consumers. Analogously, item-side fairness constraints result in a decline in user-side accuracy. In economics, the extent to which commodity tax on the supplier (item fairness) transfers to commodity tax on users (accuracy loss) is formalized using the notion of elasticity. The re-ranking fairness-accuracy trade-off is similarly governed by the elasticity of utility between item groups. This insight underscores the limitations of current fair re-ranking evaluations, which often rely solely on a single fairness metric, hindering comprehensive assessment of fair re-ranking algorithms. Centered around the concept of elasticity, this work presents two significant contributions. We introduce the Elastic Fairness Curve (EF-Curve) as an evaluation framework. This framework enables a comparative analysis of algorithm performance across different elasticity levels, facilitating the selection of the most suitable approach. Furthermore, we propose ElasticRank, a fair re-ranking algorithm that employs elasticity calculations to adjust inter-item distances within a curved space. Experiments on three widely used ranking datasets demonstrate its effectiveness and efficiency.
- Abstract(参考訳): 公平さはタスクの再ランク付けにおいてますます重要な要素である。
これまでの作業では、ランキングの正確さとアイテムの公平さのトレードオフが特定されていた。
しかし、基礎となるメカニズムはまだ完全には理解されていない。
経済取引のリランクとダイナミックスの間に類似性を描くことができる。
正確性と公正性のトレードオフは、商品税の移転プロセスの結合と平行である。
供給者に対するコモディティ税と同様に、再格付けにおける公正な考慮は、最終的に消費者に渡されるコストに変換される。
対照的に、アイテム側の公正性の制約は、ユーザ側の精度を低下させる。
経済学において、サプライヤの商品税(イテムフェアネス)が利用者の商品税(精度損失)に移行する程度は、弾力性の概念を用いて定式化される。
公平性-正確性のトレードオフは、同様にアイテムグループ間の実用性の弾力性によって管理される。
この洞察は、しばしば単一の公正度メートル法にのみ依存する現在の公正再ランク評価の限界を強調し、公正再ランクアルゴリズムの包括的な評価を妨げる。
弾性の概念を中心に、この研究は2つの重要な貢献をしている。
評価フレームワークとしてElastic Fairness Curve (EF-Curve)を導入する。
このフレームワークは、異なる弾力性レベルのアルゴリズム性能の比較分析を可能にし、最も適切なアプローチの選択を容易にする。
さらに,曲線空間内における物体間距離の調整に弾性計算を利用する公平な再ランクアルゴリズムであるElasticRankを提案する。
広く使用されている3つのランキングデータセットの実験は、その有効性と効率を実証している。
関連論文リスト
- Bayes-Optimal Fair Classification with Multiple Sensitive Features [24.42403136889636]
一般の近似公正度測定において,複数の感度特徴に対してベイズ最適フェア分類器を特徴付ける。
デモグラフィックパリティを含む既存の群フェアネス概念に対するこれらの近似測度は、特定の群の選択率の線形変換であることを示す。
我々のフレームワークは属性認識と属性盲の設定の両方に適用でき、Equalized Oddsのような複合フェアネスの概念に対応できる。
論文 参考訳(メタデータ) (2025-05-01T16:12:12Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - A Taxation Perspective for Fair Re-ranking [61.946428892727795]
本稿では,2項目間の実用性の違いに基づいて税率を上昇させる,税率という新たな公正な再格付け手法を提案する。
我々のモデルである税ランクは、公正な優遇措置として優れた税率政策を提供し、理論的には、精度損失よりも連続性と制御性の両方を実証している。
論文 参考訳(メタデータ) (2024-04-27T08:21:29Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - A Theoretical Approach to Characterize the Accuracy-Fairness Trade-off
Pareto Frontier [42.18013955576355]
正確さと公正さのトレードオフは、公正な機械学習の文献でよく観察されている。
この研究は、精度-公正トレードオフの形状を特徴付けることによって理論的枠組みの開発を目指している。
提案した研究は、精度と公正性のトレードオフの深い理解を可能にし、現在の公正な機械学習研究を新たなフロンティアに押し上げる。
論文 参考訳(メタデータ) (2023-10-19T14:35:26Z) - On Comparing Fair Classifiers under Data Bias [42.43344286660331]
本研究では,データ偏差の変化が公正分類器の精度と公平性に及ぼす影響について検討する。
我々の実験は、既存のフェアネスダッシュボードにデータバイアスリスクの尺度を統合する方法を示している。
論文 参考訳(メタデータ) (2023-02-12T13:04:46Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Conformalized Fairness via Quantile Regression [8.180169144038345]
本稿では,デモグラフィックパリティの公正性要件に基づき,実数値量子関数を学習するための新しいフレームワークを提案する。
フェア量子化法により構築された誘導予測区間に対する分布自由被覆の理論的保証と正確な公正性を確立する。
本研究は, フェアネス・正確性トレードオフの基盤となるメカニズムを, 幅広い社会的・医療的応用において明らかにする能力を示すものである。
論文 参考訳(メタデータ) (2022-10-05T04:04:15Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。