論文の概要: Envy-Free but Still Unfair: Envy-Freeness Up To One Item (EF-1) in Personalized Recommendation
- arxiv url: http://arxiv.org/abs/2509.09037v1
- Date: Wed, 10 Sep 2025 22:13:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.163778
- Title: Envy-Free but Still Unfair: Envy-Freeness Up To One Item (EF-1) in Personalized Recommendation
- Title(参考訳): Envy-free but still unfair: Envy-freeness up to one Item (EF-1) in Personalized Recommendation
- Authors: Amanda Aird, Ben Armstrong, Nicholas Mattei, Robin Burke,
- Abstract要約: 1960年代以降、経済学、ゲーム理論、社会選択文学の公平性の概念として、エンビーフリーネスと1つの項目までのエンビーフリーネスへの緩和(EF-1)が用いられてきた。
本論では, パーソナライゼーションが果たすような環境において, 空想の自由度と, 経済・レコメンデーションシステムにおける利用について概説する。
- 参考スコア(独自算出の注目度): 5.202952882375867
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Envy-freeness and the relaxation to Envy-freeness up to one item (EF-1) have been used as fairness concepts in the economics, game theory, and social choice literatures since the 1960s, and have recently gained popularity within the recommendation systems communities. In this short position paper we will give an overview of envy-freeness and its use in economics and recommendation systems; and illustrate why envy is not appropriate to measure fairness for use in settings where personalization plays a role.
- Abstract(参考訳): 1960年代以降、経済学、ゲーム理論、社会選択文学のフェアネスの概念として、エンビーフリーネス(envy-freeness)と1項目までのエンビーフリーネス(envy-freeness)への緩和(EF-1)が使われ、近年ではレコメンデーションシステムコミュニティで人気を集めている。
本論では, パーソナライズの役割を担う環境において, 空想の自由度とその経済・レコメンデーションシステムにおける利用について概説する。
関連論文リスト
- Towards Reward Fairness in RLHF: From a Resource Allocation Perspective [16.82198859401237]
本稿では、報奨における様々なバイアスを、報奨の不公平性の問題として包括的に定義する。
本稿では,資源配分の観点から報酬公平性の問題に対処するためのバイアス非依存手法を提案する。
論文 参考訳(メタデータ) (2025-05-29T11:12:00Z) - FEIR: Quantifying and Reducing Envy and Inferiority for Fair
Recommendation of Limited Resources [16.63528071283896]
e-recruitmentとオンラインデートでは、リコメンデーションは限られた機会を分散し、フェアネスを定量化し強制するための新しいアプローチを要求する。
本稿では,推奨項目に対するユーザの競争上の不利を定量化する,新規な(不公平な)フェールネス尺度である outhinferiority を紹介する。
関連度スコアの精度関連尺度であるエンフェイティティ(enmphutility)と、劣等性とエンビー(envy)を組み合わせた。
論文 参考訳(メタデータ) (2023-11-08T09:17:47Z) - Provable Benefits of Policy Learning from Human Preferences in
Contextual Bandit Problems [82.92678837778358]
嗜好に基づく手法は、InstructGPTのような経験的応用でかなりの成功を収めている。
フィードバックモデリングにおける人間のバイアスと不確実性がこれらのアプローチの理論的保証にどのように影響するかを示す。
論文 参考訳(メタデータ) (2023-07-24T17:50:24Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - FedGRec: Federated Graph Recommender System with Lazy Update of Latent
Embeddings [108.77460689459247]
プライバシー問題を軽減するためのフェデレートグラフレコメンダシステム(FedGRec)を提案する。
本システムでは,ユーザとサーバは,ユーザとアイテムに対する遅延埋め込みを明示的に記憶する。
我々は,遅延埋め込みを相互作用グラフの欠落のプロキシとして用いることの有効性を検証するために,広範な実験的な評価を行った。
論文 参考訳(メタデータ) (2022-10-25T01:08:20Z) - COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation [56.520470678876656]
ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-14T02:29:10Z) - Towards Equalised Odds as Fairness Metric in Academic Performance
Prediction [0.0]
学術的性能予測(APP)システムについてより詳しく検討し、どの公平性の概念がこの課題に最も適しているかを排除しようと試みる。
以上の結果から,APPの世界観と人口の長期的改善の可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-29T10:12:41Z) - The Golden Rule as a Heuristic to Measure the Fairness of Texts Using
Machine Learning [0.0]
ゴールデン・ルール(Golden Rule, GR)は、他者を扱いたいと考える道徳哲学の定式化である。
歴史を通じて公理として流行しているが、黄金律のデジタル化は存在しない。
例えば、男の子が少女を傷つけ、それらを公平または不公平と分類するなどである。
論文 参考訳(メタデータ) (2021-10-29T22:33:45Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Two-Sided Fairness in Non-Personalised Recommendations [6.403167095324894]
ユーザフェアネスと組織フェアネスという,2つの特定のフェアネスに関する問題(従来は別々に研究されていた)について論じる。
ユーザフェアネスについては、社会的選択理論、すなわち、ユーザ選択をより良く表現するために知られている様々な投票ルールの手法を用いてテストする。
投票ルールに基づく推薦の結果を分析した結果、よく知られた投票ルールはユーザ側より優れているが、高いバイアス値を示すことがわかった。
論文 参考訳(メタデータ) (2020-11-10T18:11:37Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。