論文の概要: COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2210.15500v2
- Date: Sun, 22 Oct 2023 23:12:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 14:37:16.105814
- Title: COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation
- Title(参考訳): COFFEE:説明可能なリコメンデーションにおける個人化テキスト生成の非現実的公正性
- Authors: Nan Wang, Qifan Wang, Yi-Chia Wang, Maziar Sanjabi, Jingzhou Liu,
Hamed Firooz, Hongning Wang, Shaoliang Nie
- Abstract要約: ユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護された属性を関連付けることができる。
説明生成における測度特異的な対実的公正性を実現するための一般的な枠組みを提案する。
- 参考スコア(独自算出の注目度): 56.520470678876656
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As language models become increasingly integrated into our digital lives,
Personalized Text Generation (PTG) has emerged as a pivotal component with a
wide range of applications. However, the bias inherent in user written text,
often used for PTG model training, can inadvertently associate different levels
of linguistic quality with users' protected attributes. The model can inherit
the bias and perpetuate inequality in generating text w.r.t. users' protected
attributes, leading to unfair treatment when serving users. In this work, we
investigate fairness of PTG in the context of personalized explanation
generation for recommendations. We first discuss the biases in generated
explanations and their fairness implications. To promote fairness, we introduce
a general framework to achieve measure-specific counterfactual fairness in
explanation generation. Extensive experiments and human evaluations demonstrate
the effectiveness of our method.
- Abstract(参考訳): 言語モデルが私たちのデジタル生活にますます統合されるにつれて、パーソナライズドテキスト生成(PTG)は幅広いアプリケーションで重要なコンポーネントとして現れています。
しかし、PTGモデルトレーニングによく使用されるユーザ記述テキストに固有のバイアスは、言語品質の異なるレベルとユーザの保護属性を不注意に関連付けることができる。
このモデルは、w.r.t.ユーザの保護された属性を生成する際のバイアスを継承し、不平等を持続することができる。
本研究では,レコメンデーションのためのパーソナライズされた説明生成の文脈におけるPTGの公平性を検討する。
まず,生成された説明のバイアスとその公平性について論じる。
公平性を促進するために,説明生成における尺度固有の反事実的公平性を達成するための一般的な枠組みを提案する。
本手法の有効性を示す実験と人体評価を行った。
関連論文リスト
- GUS-Net: Social Bias Classification in Text with Generalizations, Unfairness, and Stereotypes [2.2162879952427343]
本稿では,バイアス検出の革新的なアプローチであるGAS-Netを紹介する。
GUS-Netは、(G)エナラライゼーション、(U)nfairness、(S)tereotypesの3つの重要な種類のバイアスに焦点を当てている。
本手法は,事前学習したモデルの文脈エンコーディングを組み込むことにより,従来のバイアス検出手法を強化する。
論文 参考訳(メタデータ) (2024-10-10T21:51:22Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - All Should Be Equal in the Eyes of Language Models: Counterfactually
Aware Fair Text Generation [16.016546693767403]
本研究では,多様な階層のモデル理解を動的に比較し,より公平な文を生成する枠組みを提案する。
CAFIEはより公平なテキストを生成し、公平性と言語モデリング能力の最良のバランスを打ちます。
論文 参考訳(メタデータ) (2023-11-09T15:39:40Z) - Toward Fairness in Text Generation via Mutual Information Minimization
based on Importance Sampling [23.317845744611375]
そこで本研究では,生成した文のセマンティクスと人口極性との間の相互情報の最小化を提案する。
このように、人口集団の言及は、生成したテキストに記述される方法から独立することが奨励される。
また, 脱バイアス後のPLMの言語モデリング能力を維持する蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-02-25T18:29:02Z) - Fair NLP Models with Differentially Private Text Encoders [1.7434507809930746]
差分プライバシと敵対的トレーニングのアイデアを組み合わせてプライベートテキスト表現を学習するアプローチであるFEDERATEを提案する。
4つのNLPデータセット上で、表現のプライバシと下流モデルの公平性と精度のトレードオフを実証的に評価する。
論文 参考訳(メタデータ) (2022-05-12T14:58:38Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。