論文の概要: Causality-Inspired Fair Representation Learning for Multimodal Recommendation
- arxiv url: http://arxiv.org/abs/2310.17373v3
- Date: Wed, 11 Jun 2025 09:28:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:01.322662
- Title: Causality-Inspired Fair Representation Learning for Multimodal Recommendation
- Title(参考訳): 因果性に着想を得たマルチモーダルレコメンデーションのための公正表現学習
- Authors: Weixin Chen, Li Chen, Yongxin Ni, Yuhan Zhao,
- Abstract要約: 本稿では,因果性に着想を得たモダリティ指向のモダリティ・アンタングルメントと関係認識のフェアネス学習を通じて,新しいフェア・マルチモーダル・レコメンデーション・アプローチ(FMMRec)を提案する。
提案手法は,マルチモーダルレコメンデーションにおける反ファクトフェアネスの実現を目的としている。
- 参考スコア(独自算出の注目度): 10.786383939272115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, multimodal recommendations (MMR) have gained increasing attention for alleviating the data sparsity problem of traditional recommender systems by incorporating modality-based representations. Although MMR exhibits notable improvement in recommendation accuracy, we empirically validate that an increase in the quantity or variety of modalities leads to a higher degree of users' sensitive information leakage due to entangled causal relationships, risking fair representation learning. On the other hand, existing fair representation learning approaches are mostly based on the assumption that sensitive information is solely leaked from users' interaction data and do not explicitly model the causal relationships introduced by multimodal data, which limits their applicability in multimodal scenarios. To address this limitation, we propose a novel fair multimodal recommendation approach (dubbed FMMRec) through causality-inspired fairness-oriented modal disentanglement and relation-aware fairness learning. Particularly, we disentangle biased and filtered modal embeddings inspired by causal inference techniques, enabling the mining of modality-based unfair and fair user-user relations, thereby enhancing the fairness and informativeness of user representations. By addressing the causal effects of sensitive attributes on user preferences, our approach aims to achieve counterfactual fairness in multimodal recommendations. Experiments on two public datasets demonstrate the superiority of our FMMRec relative to the state-of-the-art baselines. Our source code is available at https://github.com/WeixinChen98/FMMRec.
- Abstract(参考訳): 近年,マルチモーダルレコメンデーション (MMR) は,モダリティに基づく表現を取り入れることで,従来のレコメンデーションシステムにおけるデータ空間の問題を軽減するために注目を集めている。
MMRは推奨精度の顕著な向上を示すが、モダリティの量や多様さの増加は、絡み合った因果関係によるユーザーの機密情報漏洩の度合いを高め、公正な表現学習のリスクを負うことを実証的に検証する。
一方,既存の公正表現学習手法は,ユーザのインタラクションデータからのみセンシティブな情報が漏洩し,マルチモーダルデータによって引き起こされる因果関係を明示的にモデル化しないという前提に基づいている。
この制限に対処するために,因果性に着想を得た公平性指向のモーダルディスタングルと関係性を考慮したフェアネス学習を通じて,新しいフェア・マルチモーダル・レコメンデーション・アプローチ(FMMRec)を提案する。
特に、因果推論技術に着想を得た偏りとフィルタによるモーダル埋め込みを解消し、モダリティに基づく不公平かつ公平なユーザ-ユーザ関係のマイニングを可能にし、ユーザ表現の公平性と情報性を高める。
ユーザの嗜好に敏感な属性が与える因果的影響に対処することにより,マルチモーダルレコメンデーションにおける反ファクトフェアネスの実現を目指す。
2つの公開データセットの実験は、最先端のベースラインに対するFMMRecの優位性を実証している。
ソースコードはhttps://github.com/WeixinChen98/FMMRec.comで公開されています。
関連論文リスト
- Improving Recommendation Fairness without Sensitive Attributes Using Multi-Persona LLMs [21.381646091763272]
センシティブな属性にアクセスすることなく、リコメンデーションフェアネスを改善することを目指している。
LLMFOSA(Out Sensitive Attributes)を用いたフェアレコメンデーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T03:52:41Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z) - Generating with Fairness: A Modality-Diffused Counterfactual Framework for Incomplete Multimodal Recommendations [25.59598957355806]
不完全なマルチモーダルレコメンデーションのための新しいModality-Diffused Counterfactual (MoDiCF)フレームワークを提案する。
MoDiCFには、新しいモダリティ拡散データ補完モジュールと、新しいマルチモーダルリコメンデーションモジュールの2つの重要なモジュールがある。
論文 参考訳(メタデータ) (2025-01-21T06:43:16Z) - Asymmetric Reinforcing against Multi-modal Representation Bias [59.685072206359855]
マルチモーダル表現バイアス(ARM)に対する非対称強化法を提案する。
我々のARMは、条件付き相互情報を通じて支配的なモダリティを表現する能力を維持しながら、弱いモダリティを動的に強化する。
我々はマルチモーダル学習の性能を著しく改善し、不均衡なマルチモーダル学習の軽減に顕著な進展をもたらした。
論文 参考訳(メタデータ) (2025-01-02T13:00:06Z) - FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Adaptive Contrastive Learning on Multimodal Transformer for Review
Helpfulness Predictions [40.70793282367128]
本稿では,MRHP(Multimodal Review Helpfulness Prediction)問題に対するマルチモーダルコントラスト学習を提案する。
さらに,コントラスト学習における適応重み付け方式を提案する。
最後に,マルチモーダルデータの不整合性に対処するマルチモーダルインタラクションモジュールを提案する。
論文 参考訳(メタデータ) (2022-11-07T13:05:56Z) - Deep Causal Reasoning for Recommendations [47.83224399498504]
推薦システム研究の新たなトレンドは、共同創設者の影響を因果的観点から否定することである。
提案手法は多因性マルチアウトカム(MCMO)推論問題としてモデル化する。
MCMOモデリングは,高次元因果空間に付随する観測が不十分なため,高いばらつきをもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2022-01-06T15:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。