論文の概要: Joint Multisided Exposure Fairness for Recommendation
- arxiv url: http://arxiv.org/abs/2205.00048v1
- Date: Fri, 29 Apr 2022 19:13:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 13:55:46.460755
- Title: Joint Multisided Exposure Fairness for Recommendation
- Title(参考訳): 勧告のための複合多面露光フェアネス
- Authors: Haolun Wu, Bhaskar Mitra, Chen Ma, Fernando Diaz and Xue Liu
- Abstract要約: 本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
- 参考スコア(独自算出の注目度): 76.75990595228666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior research on exposure fairness in the context of recommender systems has
focused mostly on disparities in the exposure of individual or groups of items
to individual users of the system. The problem of how individual or groups of
items may be systemically under or over exposed to groups of users, or even all
users, has received relatively less attention. However, such systemic
disparities in information exposure can result in observable social harms, such
as withholding economic opportunities from historically marginalized groups
(allocative harm) or amplifying gendered and racialized stereotypes
(representational harm). Previously, Diaz et al. developed the expected
exposure metric -- that incorporates existing user browsing models that have
previously been developed for information retrieval -- to study fairness of
content exposure to individual users. We extend their proposed framework to
formalize a family of exposure fairness metrics that model the problem jointly
from the perspective of both the consumers and producers. Specifically, we
consider group attributes for both types of stakeholders to identify and
mitigate fairness concerns that go beyond individual users and items towards
more systemic biases in recommendation. Furthermore, we study and discuss the
relationships between the different exposure fairness dimensions proposed in
this paper, as well as demonstrate how stochastic ranking policies can be
optimized towards said fairness goals.
- Abstract(参考訳): 推薦システムの文脈における露出公正性に関する以前の研究は、主にシステムの個々のユーザに対して個々のアイテムやグループの露出の格差に焦点を当ててきた。
個人やアイテムの集団が、ユーザーグループ、さらにはすべてのユーザーに対して、体系的に、あるいは過度に露出する可能性があるという問題は、比較的少なくなった。
しかし、情報公開におけるこのような体系的な格差は、歴史的に疎外されたグループ(地域的危害)からの経済的機会を抑えることや、性別や人種的なステレオタイプ(表現的害)を増幅することなど、監視可能な社会的害をもたらす可能性がある。
これまでdiazらは、情報検索のために開発された既存のユーザブラウジングモデルを取り入れた、期待される露出指標を開発し、個々のユーザに対するコンテンツ露出の公平性を調査した。
提案する枠組みを拡張して,消費者と生産者の両面から問題をモデル化する露出公平度指標のファミリーを定式化する。
具体的には、双方の利害関係者に対するグループ属性を考慮し、個別のユーザやアイテムを超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
さらに,本論文で提案されている異なる露出公正度次元の関係について検討・検討し,そのフェアネス目標に対して確率的ランキング政策がいかに最適化できるかを実証する。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Causal Disentanglement with Network Information for Debiased
Recommendations [34.698181166037564]
近年の研究では、因果的観点からレコメンデーターシステムをモデル化することで、デビアスを提案する。
この設定における重要な課題は、隠れた共同設立者を説明することだ。
我々は,ネットワーク情報(すなわち,ユーザ・ソーシャルおよびユーザ・イテムネットワーク)を活用して,隠れた共同創設者をよりよく近似することを提案する。
論文 参考訳(メタデータ) (2022-04-14T20:55:11Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Towards Fair Personalization by Avoiding Feedback Loops [3.180077164673223]
自己強化フィードバックループは、対話型レコメンデーションシステムにおけるコンテンツのオーバー&アンダー表示の影響と原因である。
代替案への体系的かつ限定的な露出を明示的に含み、あるいは無視する2つのモデルを考察する。
論文 参考訳(メタデータ) (2020-12-20T19:28:57Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。