論文の概要: How Fair is Your Diffusion Recommender Model?
- arxiv url: http://arxiv.org/abs/2409.04339v1
- Date: Fri, 06 Sep 2024 15:17:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 16:25:10.452984
- Title: How Fair is Your Diffusion Recommender Model?
- Title(参考訳): 拡散リコメンダモデルってどれぐらいフェア?
- Authors: Daniele Malitesta, Giacomo Medda, Erasmo Purificato, Ludovico Boratto, Fragkiskos D. Malliaros, Mirko Marras, Ernesto William De Luca,
- Abstract要約: 拡散に基づくレコメンデーションシステムは、近年、従来のジェネレーティブレコメンデーションアプローチより優れていることが証明されている。
機械学習の文献は、拡散モデルが必然的に情報のバイアスを持ち、不公平な結果をもたらす可能性があるといういくつかの懸念を提起している。
我々は拡散に基づく推薦の先駆的アプローチであるDiffRecに関する文献において、最初の公正性調査の1つを行う。
- 参考スコア(独自算出の注目度): 17.78188684065516
- License:
- Abstract: Diffusion-based recommender systems have recently proven to outperform traditional generative recommendation approaches, such as variational autoencoders and generative adversarial networks. Nevertheless, the machine learning literature has raised several concerns regarding the possibility that diffusion models, while learning the distribution of data samples, may inadvertently carry information bias and lead to unfair outcomes. In light of this aspect, and considering the relevance that fairness has held in recommendations over the last few decades, we conduct one of the first fairness investigations in the literature on DiffRec, a pioneer approach in diffusion-based recommendation. First, we propose an experimental setting involving DiffRec (and its variant L-DiffRec) along with nine state-of-the-art recommendation models, two popular recommendation datasets from the fairness-aware literature, and six metrics accounting for accuracy and consumer/provider fairness. Then, we perform a twofold analysis, one assessing models' performance under accuracy and recommendation fairness separately, and the other identifying if and to what extent such metrics can strike a performance trade-off. Experimental results from both studies confirm the initial unfairness warnings but pave the way for how to address them in future research directions.
- Abstract(参考訳): 拡散に基づくリコメンデータシステムは、近年、変分オートエンコーダや生成的敵ネットワークなど、従来の生成的レコメンデーションアプローチより優れていることが証明されている。
それでも、機械学習の文献は、拡散モデルがデータサンプルの分布を学習しながら、不当に情報バイアスを負い、不公平な結果をもたらす可能性があるといういくつかの懸念を提起している。
この点を踏まえて、過去数十年間、フェアネスが勧告に当てはめてきた関連性を考慮すると、拡散に基づく勧告の先駆的アプローチであるDiffRecに関する文献において、最初のフェアネス調査の1つを行う。
まず、DiffRec(とその派生型L-DiffRec)と9つの最先端レコメンデーションモデル、フェアネスを意識した文献からの2つの一般的なレコメンデーションデータセット、精度と消費者/消費者のフェアネスを考慮に入れた6つの指標を含む実験的な設定を提案する。
そして、2つの分析を行い、1つは精度と推奨フェアネスでモデルの性能を別々に評価し、もう1つは、そのような指標がパフォーマンスのトレードオフを引き起こすかどうかを識別する。
両研究の実験的結果は、最初の不公平な警告を確認できたが、今後の研究の方向性に対処する方法を練った。
関連論文リスト
- Alpha and Prejudice: Improving $α$-sized Worst-case Fairness via Intrinsic Reweighting [34.954141077528334]
既成人口集団との最悪のフェアネスは、最悪の集団のモデルユーティリティを最大化することで、同等性を達成する。
近年の進歩は、最小分割比の低い境界を導入することで、この学習問題を再構築している。
論文 参考訳(メタデータ) (2024-11-05T13:04:05Z) - Real-World Benchmarks Make Membership Inference Attacks Fail on Diffusion Models [12.386823277082746]
拡散モデルに対するメンバーシップ推論攻撃(MIA)は、不正なデータ使用の潜在的証拠として浮上している。
本研究は,拡散モデルにおける最先端MIAの評価について検討し,重大な欠陥と過度に楽観的な性能評価を明らかにした。
CopyMarkはより現実的なMIAベンチマークで、事前訓練された拡散モデル、偏りのないデータセット、公正な評価パイプラインのサポートを通じて自分自身を区別する。
論文 参考訳(メタデータ) (2024-10-04T17:46:06Z) - A Survey on Diffusion Models for Recommender Systems [36.543994040915926]
本稿では,拡散モデルに関する最初の総合的な調査について紹介する。
DMは、堅牢な生成能力のため、レコメンデーターシステムのための有望なソリューションとして現れてきた。
我々の分類学は、複雑なデータ分布を捉える際の拡散モデルのユニークな強みを強調している。
論文 参考訳(メタデータ) (2024-09-08T08:57:12Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Fair Sampling in Diffusion Models through Switching Mechanism [5.560136885815622]
本研究では,拡散モデルに対するテクスタトリビュートスイッチング機構という,公平性を考慮したサンプリング手法を提案する。
提案手法の有効性を2つの重要な側面から数学的に証明し,実験的に実証する。
論文 参考訳(メタデータ) (2024-01-06T06:55:26Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Balancing Unobserved Confounding with a Few Unbiased Ratings in Debiased
Recommendations [4.960902915238239]
本稿では,既存のデバイアス法に適用可能な理論的に保証されたモデル非依存バランス手法を提案する。
提案手法では, バイアスデータを用いて学習したモデルパラメータを補正し, バイアスデータのバランス係数を適応的に学習することで, バイアスデータを完全に活用する。
論文 参考訳(メタデータ) (2023-04-17T08:56:55Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。