論文の概要: How Fair is Your Diffusion Recommender Model?
- arxiv url: http://arxiv.org/abs/2409.04339v2
- Date: Sun, 10 Aug 2025 06:24:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.079316
- Title: How Fair is Your Diffusion Recommender Model?
- Title(参考訳): 拡散リコメンダモデルってどれぐらいフェア?
- Authors: Daniele Malitesta, Giacomo Medda, Erasmo Purificato, Mirko Marras, Fragkiskos D. Malliaros, Ludovico Boratto,
- Abstract要約: 本稿では拡散に基づく推薦の先駆的手法であるDiffRecの公正性に関する最初の実証的研究を提案する。
我々の研究では、DiffRecとその変種であるL-DiffRecが、2つのベンチマークデータセット上で9つの推奨システムに対してテストされた。
拡散モデルに関するより一般的な機械学習文献と一致した傾向を示す一方で、今後の研究における不公平問題に対処するための有望な方向性を示す。
- 参考スコア(独自算出の注目度): 17.321932595953527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based learning has settled as a rising paradigm in generative recommendation, outperforming traditional approaches built upon variational autoencoders and generative adversarial networks. Despite their effectiveness, concerns have been raised that diffusion models - widely adopted in other machine-learning domains - could potentially lead to unfair outcomes, since they are trained to recover data distributions that often encode inherent biases. Motivated by the related literature, and acknowledging the extensive discussion around bias and fairness aspects in recommendation, we propose, to the best of our knowledge, the first empirical study of fairness for DiffRec, chronologically the pioneer technique in diffusion-based recommendation. Our empirical study involves DiffRec and its variant L-DiffRec, tested against nine recommender systems on two benchmarking datasets to assess recommendation utility and fairness from both consumer and provider perspectives. Specifically, we first evaluate the utility and fairness dimensions separately and, then, within a multi-criteria setting to investigate whether, and to what extent, these approaches can achieve a trade-off between the two. While showing worrying trends in alignment with the more general machine-learning literature on diffusion models, our results also indicate promising directions to address the unfairness issue in future work. The source code is available at https://github.com/danielemalitesta/FairDiffRec.
- Abstract(参考訳): 拡散に基づく学習は、生成的推薦のパラダイムとして定着し、変分オートエンコーダと生成的敵ネットワーク上に構築された伝統的なアプローチよりも優れている。
その効果にもかかわらず、拡散モデル(他の機械学習領域で広く採用されている)が、しばしば固有のバイアスをエンコードするデータ分布を回復するように訓練されているため、不公平な結果をもたらす可能性があるという懸念が高まっている。
関連文献に触発され, 偏見と公平性に関する広範な議論が推奨されていることから, DiffRecにとっての公正性に関する最初の実証的研究である, 拡散に基づく推奨の先駆的手法である, 最善を尽くして提案する。
DiffRecとその派生型であるL-DiffRecは、2つのベンチマークデータセット上で9つのレコメンデーションシステムに対してテストし、コンシューマとプロバイダの両方の観点からリコメンデーションユーティリティとフェアネスを評価します。
具体的には、まず実用性と公正性の次元を別々に評価し、次に、複数基準設定内でこれらのアプローチが両者のトレードオフを達成できるかどうかを調査する。
拡散モデルに関するより一般的な機械学習文献と一致した傾向を示す一方で、今後の研究における不公平問題に対処するための有望な方向性を示す。
ソースコードはhttps://github.com/danielemalitesta/FairDiffRec.comで公開されている。
関連論文リスト
- Alleviating User-Sensitive bias with Fair Generative Sequential Recommendation Model [37.544371176013435]
新しい生成モデルパラダイムとしての拡散モデル(DM)はレコメンデーションシステムにおいて大きな成功を収めた。
本稿では,FairGENRecに基づくFairGENerative Sequence Recommendationモデルを提案する。
論文 参考訳(メタデータ) (2025-06-24T16:42:46Z) - Unbiased Collaborative Filtering with Fair Sampling [31.8123420283795]
評価バイアスは,トレーニング中の確率要因の影響から生じる。
本稿では,各ユーザと各アイテムが正と負の両方のインスタンスとして選択される確率が等しいことを保証したフェアサンプリング(FS)手法を提案する。
論文 参考訳(メタデータ) (2025-02-19T15:59:49Z) - InvDiff: Invariant Guidance for Bias Mitigation in Diffusion Models [28.51460282167433]
拡散モデルは、非常にデータ駆動であり、現実世界のデータに存在する不均衡とバイアスを継承する傾向がある。
拡散誘導のための不変意味情報学習を目的としたフレームワークInvDiffを提案する。
InvDiffは、画像生成の品質を維持しながら、バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-12-11T15:47:11Z) - Real-World Benchmarks Make Membership Inference Attacks Fail on Diffusion Models [12.386823277082746]
拡散モデルに対するメンバーシップ推論攻撃(MIA)は、不正なデータ使用の潜在的証拠として浮上している。
本研究は,拡散モデルにおける最先端MIAの評価について検討し,重大な欠陥と過度に楽観的な性能評価を明らかにした。
CopyMarkはより現実的なMIAベンチマークで、事前訓練された拡散モデル、偏りのないデータセット、公正な評価パイプラインのサポートを通じて自分自身を区別する。
論文 参考訳(メタデータ) (2024-10-04T17:46:06Z) - A Survey on Diffusion Models for Recommender Systems [36.543994040915926]
本稿では,拡散モデルに関する最初の総合的な調査について紹介する。
DMは、堅牢な生成能力のため、レコメンデーターシステムのための有望なソリューションとして現れてきた。
我々の分類学は、複雑なデータ分布を捉える際の拡散モデルのユニークな強みを強調している。
論文 参考訳(メタデータ) (2024-09-08T08:57:12Z) - Mitigating Exposure Bias in Online Learning to Rank Recommendation: A Novel Reward Model for Cascading Bandits [23.15042648884445]
我々は,Linear Cascading Banditsとして知られる,よく知られた文脈的帯域幅アルゴリズムのクラスにおける露出バイアスについて検討した。
本研究では,1)暗黙的なユーザフィードバック,2)レコメンデーションリストにおける項目の位置という2つの要因に基づいて,モデルパラメータを更新する Exposure-Aware reward モデルを提案する。
論文 参考訳(メタデータ) (2024-08-08T09:35:01Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fair Sampling in Diffusion Models through Switching Mechanism [5.560136885815622]
本研究では,拡散モデルに対するテクスタトリビュートスイッチング機構という,公平性を考慮したサンプリング手法を提案する。
提案手法の有効性を2つの重要な側面から数学的に証明し,実験的に実証する。
論文 参考訳(メタデータ) (2024-01-06T06:55:26Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。