論文の概要: Unintended Bias in Language Model-drivenConversational Recommendation
- arxiv url: http://arxiv.org/abs/2201.06224v1
- Date: Mon, 17 Jan 2022 05:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 06:38:26.338724
- Title: Unintended Bias in Language Model-drivenConversational Recommendation
- Title(参考訳): 言語モデルに基づく会話レコメンデーションにおける意図しないバイアス
- Authors: Tianshu Shen, Jiaru Li, Mohamed Reda Bouadjenek, Zheda Mai, Scott
Sanner
- Abstract要約: 本研究では,レストランレコメンデーションの価格とカテゴリー分布に意図しない偏見がどのように現れるかを検討する。
黒人コミュニティに関連する名前のオフハンド言及は、推奨レストランの価格分布を著しく低下させる。
男性関係の一般的な名前のオフハンド言及は、推奨のアルコール飲用施設の増加につながっている。
- 参考スコア(独自算出の注目度): 16.225899125487764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational Recommendation Systems (CRSs) have recently started to
leverage pretrained language models (LM) such as BERTfor their ability to
semantically interpret a wide range of preference statement variations.
However, pretrained LMs are well-known to be prone to intrinsic biases in their
training data, which may be exacerbated by biases embedded in domain-specific
language data(e.g., user reviews) used to fine-tune LMs for CRSs. We study are
recently introduced LM-driven recommendation backbone (termedLMRec) of a CRS to
investigate how unintended bias i.e., language variations such as name
references or indirect indicators of sexual orientation or location that should
not affect recommendations manifests in significantly shifted price and
category distributions of restaurant recommendations. The alarming results we
observe strongly indicate that LMRec has learned to reinforce harmful
stereotypes through its recommendations. For example, offhand mention of names
associated with the black community significantly lowers the price distribution
of recommended restaurants, while offhand mentions of common male-associated
names lead to an increase in recommended alcohol-serving establishments. These
and many related results presented in this work raise a red flag that advances
in the language handling capability of LM-drivenCRSs do not come without
significant challenges related to mitigating unintended bias in future deployed
CRS assistants with a potential reach of hundreds of millions of end users.
- Abstract(参考訳): Conversational Recommendation Systems (CRS)は、BERTのような事前訓練された言語モデル(LM)を活用して、幅広い好み文のバリエーションを意味論的に解釈する機能を提供している。
しかし、事前学習されたLMは、トレーニングデータに固有のバイアスが伴うことがよく知られており、これは、CRSのための微調整に使用されるドメイン固有の言語データ(例えば、ユーザレビュー)に埋め込まれたバイアスによって悪化する可能性がある。
我々は最近,CRS の LM によるレコメンデーションバックボーン (termedLMRec) を導入し,レストランのレコメンデーションの価格やカテゴリー分布が著しく変動している場合の,名前参照や性的指向の間接的指標などの言語的偏見や,レコメンデーションに影響を及ぼさない場所などについて検討した。
その結果,lmrecは有害なステレオタイプを推奨することで強化できることが強く示唆された。
例えば、黒人コミュニティに関連する名前のオフハンド言及は推奨レストランの価格分布を著しく下げる一方、男性関連の名前のオフハンド言及は推奨アルコール飲食施設の増加につながっている。
LM駆動CRSの言語処理能力が向上する赤旗は、将来のデプロイされたCRSアシスタントにおける意図しないバイアスを軽減し、数億人のエンドユーザにリーチする、という大きな課題を伴わない。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - A Novel Interpretability Metric for Explaining Bias in Language Models: Applications on Multilingual Models from Southeast Asia [0.3376269351435396]
事前学習言語モデル(PLM)におけるバイアス行動に対するトークンレベルの寄与を測定するための新しい指標を提案する。
東南アジアのPLMにおいて性差別と同性愛バイアスの存在が確認された。
解釈可能性と意味分析は、PLMバイアスが犯罪、親密な関係、助けに関する言葉によって強く引き起こされることを示している。
論文 参考訳(メタデータ) (2024-10-20T18:31:05Z) - Mitigating Propensity Bias of Large Language Models for Recommender Systems [20.823461673845756]
我々は,CLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介する。
本稿では,歴史的相互作用から得られた構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案する。
我々の CLLMR アプローチは LLM ベースのレコメンデータシステムに固有の因果関係を探索する。
論文 参考訳(メタデータ) (2024-09-30T07:57:13Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - Noise Contrastive Alignment of Language Models with Explicit Rewards [32.90586853892559]
我々は、NCEを利用して、スカラー評価で明示的に注釈付けされた報酬データセットを扱う際のギャップを埋める、LMアライメントのための一般的なフレームワークを提案する。
我々のフレームワークは2つの並列アルゴリズム、NAAとInfoNCAで構成されており、どちらも報酬データと嗜好データからLMポリシーを直接抽出することができる。
NCA と InfoNCA を比較することで,DPO/InfoNCA の減少傾向は,反応の相違による相対可能性の調整に焦点が当てられていることが示される。
論文 参考訳(メタデータ) (2024-02-08T02:58:47Z) - GPTBIAS: A Comprehensive Framework for Evaluating Bias in Large Language
Models [83.30078426829627]
大規模言語モデル(LLM)は人気を集め、大規模なユーザコミュニティで広く採用されている。
既存の評価手法には多くの制約があり、それらの結果は限定的な解釈可能性を示している。
本稿では,LPMの高性能性を活用し,モデル内のバイアスを評価するGPTBIASというバイアス評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T12:02:14Z) - Rethinking the Evaluation for Conversational Recommendation in the Era
of Large Language Models [115.7508325840751]
近年の大規模言語モデル(LLM)の成功は、より強力な対話レコメンデーションシステム(CRS)を開発する大きな可能性を示している。
本稿では,ChatGPTの会話レコメンデーションへの活用について検討し,既存の評価プロトコルが不十分であることを明らかにする。
LLMをベースとしたユーザシミュレータを用いた対話型評価手法iEvaLMを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:12:43Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Hate Speech Detection and Racial Bias Mitigation in Social Media based
on BERT model [1.9336815376402716]
本稿では,既存の学習済み言語モデルであるBERTに基づくヘイトスピーチ検出のための伝達学習手法を提案する。
提案したモデルは、人種差別、セクシズム、憎悪、攻撃的なコンテンツをTwitter上で注釈付けした2つの公開データセット上で評価する。
論文 参考訳(メタデータ) (2020-08-14T16:47:25Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。