論文の概要: Embedding Cultural Diversity in Prototype-based Recommender Systems
- arxiv url: http://arxiv.org/abs/2412.14329v1
- Date: Wed, 18 Dec 2024 20:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:33:58.523914
- Title: Embedding Cultural Diversity in Prototype-based Recommender Systems
- Title(参考訳): プロトタイプベースレコメンダシステムにおける文化的多様性の埋め込み
- Authors: Armin Moradi, Nicola Neophytou, Florian Carichon, Golnoosh Farnadi,
- Abstract要約: レコメンデーションシステムにおける人気バイアスは、支配的な文化からの規範を支持することによって、文化的過剰表現を増加させる可能性がある。
本研究では,プロトタイプに基づく行列因数分解法において,人口統計バイアスを同定することで,人気バイアスに対処する。
その結果, 長身品の平均ランクは27%減少し, 少数国のアイテムの平均ランクは2%低下した。
- 参考スコア(独自算出の注目度): 3.9148550258086843
- License:
- Abstract: Popularity bias in recommender systems can increase cultural overrepresentation by favoring norms from dominant cultures and marginalizing underrepresented groups. This issue is critical for platforms offering cultural products, as they influence consumption patterns and human perceptions. In this work, we address popularity bias by identifying demographic biases within prototype-based matrix factorization methods. Using the country of origin as a proxy for cultural identity, we link this demographic attribute to popularity bias by refining the embedding space learning process. First, we propose filtering out irrelevant prototypes to improve representativity. Second, we introduce a regularization technique to enforce a uniform distribution of prototypes within the embedding space. Across four datasets, our results demonstrate a 27\% reduction in the average rank of long-tail items and a 2\% reduction in the average rank of items from underrepresented countries. Additionally, our model achieves a 2\% improvement in HitRatio@10 compared to the state-of-the-art, highlighting that fairness is enhanced without compromising recommendation quality. Moreover, the distribution of prototypes leads to more inclusive explanations by better aligning items with diverse prototypes.
- Abstract(参考訳): レコメンデーターシステムにおける人気バイアスは、支配的な文化からの規範を支持し、過小評価されたグループを疎外することによって、文化的過剰表現を高めることができる。
この問題は、消費パターンや人間の知覚に影響を与えるため、文化製品を提供するプラットフォームにとって重要である。
本研究では,プロトタイプに基づく行列因数分解法において,人口統計バイアスを同定することで,人気バイアスに対処する。
原産地を文化的アイデンティティの代用として利用し、埋め込み空間学習プロセスを改善することにより、この人口統計特性を人気バイアスにリンクする。
まず,表現力を向上させるため,無関係なプロトタイプをフィルタリングする。
次に, 組込み空間内のプロトタイプの均一分布を強制する正規化手法を提案する。
本研究は,4つのデータセットにまたがって,ロングテールアイテムの平均ランクが27 %減少し,少数国のアイテムの平均ランクが2 %低下したことを示す。
さらに,HitRatio@10の2倍の精度向上を実現し,推奨品質を損なうことなく公正性が向上できることを強調した。
さらに、プロトタイプの配布は、さまざまなプロトタイプとアイテムの整合性を改善することによって、より包括的な説明につながる。
関連論文リスト
- ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - Score Normalization for Demographic Fairness in Face Recognition [16.421833444307232]
有名なサンプル中心スコア正規化技術であるZ-normとT-normは、高セキュリティ動作点の公平性を向上しない。
標準Z/Tノルムを拡張し、正規化における人口統計情報を統合する。
本手法は,5つの最先端の顔認識ネットワークの全体的な公正性を改善する。
論文 参考訳(メタデータ) (2024-07-19T07:51:51Z) - Advancing Cultural Inclusivity: Optimizing Embedding Spaces for Balanced Music Recommendations [4.276697874428501]
音楽レコメンデーションシステムにおける人気バイアスは、人口統計や文化の軸に沿って伝播することができる。
我々は,これらのバイアスを,プロトタイプベースの行列分解法において,表現不足の文化的グループからアーティストへの推薦において識別する。
本研究は,音楽レコメンデーションにおける人気バイアスの低減と,人口・文化の公平性向上に寄与することを示す。
論文 参考訳(メタデータ) (2024-05-27T19:12:53Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - Fairness-Aware Structured Pruning in Transformers [14.439885480035324]
本研究では,事前学習した言語モデルにおける注意が公平性とパフォーマンスに与える影響について検討する。
本稿では,パフォーマンスに重要な頭部を維持しつつ,公平性に悪影響を及ぼすような注意を喚起する新しい手法を提案する。
以上の結果から, DistilGPT-2, GPT-2, GPT-Neo, Llama 2モデルでは, 性別バイアスが19%, 19.5%, 39.5%, 34.7%, 23%, 8%減少した。
論文 参考訳(メタデータ) (2023-12-24T03:57:52Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - A Robust Bias Mitigation Procedure Based on the Stereotype Content Model [0.0]
我々は,Stereotype Contentモデルが文脈的単語埋め込みに有効であることを示すために,既存の作業に適応する。
SCM用語は、快楽に関する人口統計学用語よりも偏見を捉えることができる。
本研究は,モデルにおける偏見の具体的知識の事前知識の不要化を目的とした,偏見処理のプロトタイプとして提案する。
論文 参考訳(メタデータ) (2022-10-26T08:13:58Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Deep Learning feature selection to unhide demographic recommender
systems factors [63.732639864601914]
行列分解モデルは意味的知識を含まない因子を生成する。
DeepUnHideは、協調フィルタリングレコメンデータシステムにおいて、ユーザとアイテムファクタから、人口統計情報を抽出することができる。
論文 参考訳(メタデータ) (2020-06-17T17:36:48Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。