論文の概要: Achieving User-Side Fairness in Contextual Bandits
- arxiv url: http://arxiv.org/abs/2010.12102v1
- Date: Thu, 22 Oct 2020 22:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:20:12.192633
- Title: Achieving User-Side Fairness in Contextual Bandits
- Title(参考訳): コンテキスト帯域におけるユーザ側フェアネスの実現
- Authors: Wen Huang and Kevin Labille and Xintao Wu and Dongwon Lee and Neil
Heffernan
- Abstract要約: パーソナライズされたレコメンデーションにおけるユーザ側の公平性を実現する方法について検討する。
我々は、適切なパーソナライズされたレコメンデーションを、修正された文脈的盗賊として定式化する。
本研究では,従来のLinUCBアルゴリズムを改良したFair-LinUCBを提案する。
- 参考スコア(独自算出の注目度): 17.947543703195738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized recommendation based on multi-arm bandit (MAB) algorithms has
shown to lead to high utility and efficiency as it can dynamically adapt the
recommendation strategy based on feedback. However, unfairness could incur in
personalized recommendation. In this paper, we study how to achieve user-side
fairness in personalized recommendation. We formulate our fair personalized
recommendation as a modified contextual bandit and focus on achieving fairness
on the individual whom is being recommended an item as opposed to achieving
fairness on the items that are being recommended. We introduce and define a
metric that captures the fairness in terms of rewards received for both the
privileged and protected groups. We develop a fair contextual bandit algorithm,
Fair-LinUCB, that improves upon the traditional LinUCB algorithm to achieve
group-level fairness of users. Our algorithm detects and monitors unfairness
while it learns to recommend personalized videos to students to achieve high
efficiency. We provide a theoretical regret analysis and show that our
algorithm has a slightly higher regret bound than LinUCB. We conduct numerous
experimental evaluations to compare the performances of our fair contextual
bandit to that of LinUCB and show that our approach achieves group-level
fairness while maintaining a high utility.
- Abstract(参考訳): マルチアームバンディット(mab)アルゴリズムに基づくパーソナライズドレコメンデーションは、フィードバックに基づいてレコメンデーション戦略を動的に適応できるため、高い実用性と効率性をもたらすことが示されている。
しかし、不公平はパーソナライズドレコメンデーションを引き起こす可能性がある。
本稿では,パーソナライズドレコメンデーションにおいて,ユーザ側の公平性を実現する方法について検討する。
我々は,修正されたコンテキスト・バンディットとして,公平なパーソナライズド・レコメンデーションを定式化し,推奨されるアイテムの公平性を達成するのではなく,アイテムを推奨している個人に対して公平性を達成することに注力する。
我々は、特権グループと保護グループの両方に対して受け取った報酬の観点から、公平さを捉える指標を導入し、定義する。
そこで我々は,従来のlinucbアルゴリズムを改良し,グループレベルの公平性を実現するフェアコンテクストバンディットアルゴリズムfair-linucbを開発した。
アルゴリズムは不公平を検知・監視し,生徒にパーソナライズした動画を推薦することで高効率化を図る。
理論的な後悔の分析を行い,本アルゴリズムがlinucbよりも若干高い後悔率を持つことを示す。
提案手法は,LinUCBのそれと比較し,高い有効性を維持しつつグループレベルの公正性を達成できることを示すため,多数の実験的な評価を行った。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Achieving Counterfactual Fairness for Causal Bandit [18.077963117600785]
期待される報酬を最大化するために、各ステップでアイテムを推薦する方法を研究します。
次に, 対実的個人的公正性を達成するためのフェア因果バンドイット(F-UCB)を提案する。
論文 参考訳(メタデータ) (2021-09-21T23:44:48Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Personalized Fairness based on Causal Notion [18.5897206797918]
本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
論文 参考訳(メタデータ) (2021-05-20T15:24:34Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。