論文の概要: COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation
- arxiv url: http://arxiv.org/abs/2210.15500v1
- Date: Fri, 14 Oct 2022 02:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 12:01:07.153085
- Title: COFFEE: Counterfactual Fairness for Personalized Text Generation in
Explainable Recommendation
- Title(参考訳): COFFEE:説明可能なリコメンデーションにおける個人化テキスト生成の非現実的公正性
- Authors: Nan Wang, Shaoliang Nie, Qifan Wang, Yi-Chia Wang, Maziar Sanjabi,
Jingzhou Liu, Hamed Firooz, Hongning Wang
- Abstract要約: パーソナライズされた説明文の言語的品質に関する測度特異的な反ファクトフェアネスを実現するための枠組みを開発する。
本稿では, 対実的推論のための非絡み合い表現の学習を提案し, 公正度最適化のための報酬を慎重に設計した新しいポリシー学習アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 35.18862824472944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized text generation has broad industrial applications, such as
explanation generation for recommendations, conversational systems, etc.
Personalized text generators are usually trained on user written text, e.g.,
reviews collected on e-commerce platforms. However, due to historical, social,
or behavioral reasons, there may exist bias that associates certain linguistic
quality of user written text with the users' protected attributes such as
gender, race, etc. The generators can identify and inherit these correlations
and generate texts discriminately w.r.t. the users' protected attributes.
Without proper intervention, such bias can adversarially influence the users'
trust and reliance on the system. From a broader perspective, bias in
auto-generated contents can reinforce the social stereotypes about how online
users write through interactions with the users.
In this work, we investigate the fairness of personalized text generation in
the setting of explainable recommendation. We develop a general framework for
achieving measure-specific counterfactual fairness on the linguistic quality of
personalized explanations. We propose learning disentangled representations for
counterfactual inference and develop a novel policy learning algorithm with
carefully designed rewards for fairness optimization. The framework can be
applied for achieving fairness on any given specifications of linguistic
quality measures, and can be adapted to most of existing models and real-world
settings. Extensive experiments demonstrate the superior ability of our method
in achieving fairness while maintaining high generation performance.
- Abstract(参考訳): パーソナライズされたテキスト生成は、レコメンデーションの説明生成、会話システムなど、幅広い産業的応用がある。
パーソナライズされたテキストジェネレータは通常、eコマースプラットフォームで収集されたレビューなど、ユーザの書いたテキストでトレーニングされる。
しかし, 歴史的, 社会的, 行動的理由から, テキストの言語的品質と, 性別, 人種などのユーザの保護された属性を関連付けるバイアスが存在する可能性がある。
ジェネレータはこれらの相関を識別し、継承し、ユーザの保護された属性を識別してテキストを生成する。
適切な介入がなければ、このようなバイアスはユーザの信頼とシステムへの依存に悪影響を及ぼす可能性がある。
より広い視点から見ると、自動生成コンテンツのバイアスは、オンラインユーザーがユーザーとの対話を通じてどのように書くかに関する社会的ステレオタイプを強化することができる。
本研究では,パーソナライズされたテキスト生成の妥当性について,説明可能なレコメンデーションの設定において検討する。
パーソナライズされた説明文の言語的品質に関する測度特異的な反ファクトフェアネスを達成するための一般的な枠組みを開発する。
本稿では, 対実的推論のための非絡み合い表現の学習を提案し, 公正度最適化のための報酬を慎重に設計した新しいポリシー学習アルゴリズムを開発した。
このフレームワークは、言語品質測定の任意の仕様の公平性を達成するために適用でき、既存のモデルや現実世界の設定に適応することができる。
大規模実験により,高次性能を保ちながら公平性を達成する上で,本手法が優れていることを示す。
関連論文リスト
- GUS-Net: Social Bias Classification in Text with Generalizations, Unfairness, and Stereotypes [2.2162879952427343]
本稿では,バイアス検出の革新的なアプローチであるGAS-Netを紹介する。
GUS-Netは、(G)エナラライゼーション、(U)nfairness、(S)tereotypesの3つの重要な種類のバイアスに焦点を当てている。
本手法は,事前学習したモデルの文脈エンコーディングを組み込むことにより,従来のバイアス検出手法を強化する。
論文 参考訳(メタデータ) (2024-10-10T21:51:22Z) - Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - All Should Be Equal in the Eyes of Language Models: Counterfactually
Aware Fair Text Generation [16.016546693767403]
本研究では,多様な階層のモデル理解を動的に比較し,より公平な文を生成する枠組みを提案する。
CAFIEはより公平なテキストを生成し、公平性と言語モデリング能力の最良のバランスを打ちます。
論文 参考訳(メタデータ) (2023-11-09T15:39:40Z) - Toward Fairness in Text Generation via Mutual Information Minimization
based on Importance Sampling [23.317845744611375]
そこで本研究では,生成した文のセマンティクスと人口極性との間の相互情報の最小化を提案する。
このように、人口集団の言及は、生成したテキストに記述される方法から独立することが奨励される。
また, 脱バイアス後のPLMの言語モデリング能力を維持する蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-02-25T18:29:02Z) - Fair NLP Models with Differentially Private Text Encoders [1.7434507809930746]
差分プライバシと敵対的トレーニングのアイデアを組み合わせてプライベートテキスト表現を学習するアプローチであるFEDERATEを提案する。
4つのNLPデータセット上で、表現のプライバシと下流モデルの公平性と精度のトレードオフを実証的に評価する。
論文 参考訳(メタデータ) (2022-05-12T14:58:38Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - The Authors Matter: Understanding and Mitigating Implicit Bias in Deep
Text Classification [36.361778457307636]
ディープテキスト分類モデルは、特定の人口統計グループの著者によって書かれたテキストのバイアス結果を生成することができます。
本論文では,異なる人口集団の異なるテキスト分類タスクに暗黙のバイアスが存在することを示す。
そして、暗黙のバイアスの知識を深めるために、学習に基づく解釈方法を構築します。
論文 参考訳(メタデータ) (2021-05-06T16:17:38Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。