論文の概要: Measuring Individual User Fairness with User Similarity and Effectiveness Disparity
- arxiv url: http://arxiv.org/abs/2602.02516v1
- Date: Fri, 23 Jan 2026 14:18:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.428436
- Title: Measuring Individual User Fairness with User Similarity and Effectiveness Disparity
- Title(参考訳): ユーザ類似性と有効性の違いによる個人的ユーザフェアネスの測定
- Authors: Theresia Veronika Rampisela, Maria Maistro, Tuukka Ruotsalo, Christina Lioma,
- Abstract要約: Pairwise User UnFairness (PUF) は、個人ユーザフェアネスの新たな評価尺度である。
PUFが4つのデータセットと7つのランキングで一貫して行うことを実証的に検証します。
ユーザの類似性と有効性の両方を,個々のユーザフェアネスにおいて確実に把握するために,最初のRS評価尺度を寄贈する。
- 参考スコア(独自算出の注目度): 16.858097936239904
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Individual user fairness is commonly understood as treating similar users similarly. In Recommender Systems (RSs), several evaluation measures exist for quantifying individual user fairness. These measures evaluate fairness via either: (i) the disparity in RS effectiveness scores regardless of user similarity, or (ii) the disparity in items recommended to similar users regardless of item relevance. Both disparity in recommendation effectiveness and user similarity are very important in fairness, yet no existing individual user fairness measure simultaneously accounts for both. In brief, current user fairness evaluation measures implement a largely incomplete definition of fairness. To fill this gap, we present Pairwise User unFairness (PUF), a novel evaluation measure of individual user fairness that considers both effectiveness disparity and user similarity. PUF is the only measure that can express this important distinction. We empirically validate that PUF does this consistently across 4 datasets and 7 rankers, and robustly when varying user similarity or effectiveness. In contrast, all other measures are either almost insensitive to effectiveness disparity or completely insensitive to user similarity. We contribute the first RS evaluation measure to reliably capture both user similarity and effectiveness in individual user fairness. Our code: https://github.com/theresiavr/PUF-individual-user-fairness-recsys.
- Abstract(参考訳): 個々のユーザフェアネスは、よく似たユーザを扱うものとして一般的に理解されている。
Recommender Systems(RS)では、個々のユーザフェアネスを定量化するためのいくつかの評価方法が存在する。
これらの尺度は、いずれかを介して公正を評価する。
一 利用者の類似性にかかわらず、RS効果の相違点
(二 類似利用者に推奨される商品の相違
推奨効果の相違とユーザ類似性は公平性において非常に重要であるが、既存の個別のユーザフェアネス尺度はどちらも同時に考慮していない。
簡単に言えば、現在のユーザフェアネス評価尺度は、フェアネスのほとんど不完全な定義を実装している。
このギャップを埋めるために,Pairwise User UnFairness (PUF) を提案する。
PUFはこの重要な区別を表現できる唯一の尺度である。
PUFが4つのデータセットと7つのランキングで一貫して行うことを実証的に検証します。
対照的に、他のすべての手段は、効果の相違にほとんど敏感であるか、ユーザー類似性に完全に敏感である。
ユーザの類似性と有効性の両方を,個々のユーザフェアネスにおいて確実に把握するために,最初のRS評価尺度を寄贈する。
コード:https://github.com/theresiavr/PUF-individual-user-fairness-recsys。
関連論文リスト
- Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Stairway to Fairness: Connecting Group and Individual Fairness [20.285686122921526]
評価尺度を総合的に比較し,グループと個人的公正度の関係について検討した。
3つのデータセットにまたがる8つの実験の結果、グループにとって非常に公平な推奨事項は、個人にとって非常に不公平であることが示された。
我々の発見は、彼らのシステムの公正性を改善することを目的としたRS実践者にとって、新しくて有用なものである。
論文 参考訳(メタデータ) (2025-08-29T05:25:05Z) - Understanding Accuracy-Fairness Trade-offs in Re-ranking through Elasticity in Economics [96.68144350976637]
公平さはタスクの再ランク付けにおいてますます重要な要素である。
正確性と公正性のトレードオフは、商品税の移転プロセスの結合と平行である。
評価フレームワークとしてElastic Fairness Curve (EF-Curve)を導入する。
また,等級間距離の調整に弾性計算を利用する等級アルゴリズムであるElasticRankを提案する。
論文 参考訳(メタデータ) (2025-04-21T09:41:08Z) - CFaiRLLM: Consumer Fairness Evaluation in Large-Language Model Recommender System [16.84754752395103]
本研究は,Large Language Model (LLM) ベースのレコメンデータシステムにおける公平性評価に関する過去の研究に批判的な立場を取る。
CFaiRLLMは、真の嗜好アライメントを組み込むだけでなく、交叉フェアネスを厳格に検証する拡張評価フレームワークである。
CFaiRLLMの有効性を検証するため,MovieLensとLastFMを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-03-08T20:44:59Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Fair Effect Attribution in Parallel Online Experiments [57.13281584606437]
A/Bテストは、オンラインサービスで導入された変更の影響を確実に特定する目的で役立ちます。
オンラインプラットフォームでは,ユーザトラフィックをランダムに分割して多数の同時実験を行うのが一般的である。
異なるグループ間の完全なランダム化にもかかわらず、同時実験は互いに相互作用し、平均的な集団の結果に負の影響をもたらす。
論文 参考訳(メタデータ) (2022-10-15T17:15:51Z) - Simpson's Paradox in Recommender Fairness: Reconciling differences
between per-user and aggregated evaluations [16.053419956606557]
ランク付けとレコメンダシステムにおける公平性という2つの概念は、反対の結論につながる可能性があると論じる。
我々はこれらの概念を整理し、テンションはアイテムが関係するユーザの分布の違いによるものであることを示す。
この新たな理解に基づいて、実践者はどちらの概念にも興味を持っているかもしれないが、ユーザ単位のメトリクスで課題に直面しているかもしれない。
論文 参考訳(メタデータ) (2022-10-14T12:43:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。