論文の概要: Stereotype or Personalization? User Identity Biases Chatbot Recommendations
- arxiv url: http://arxiv.org/abs/2410.05613v1
- Date: Tue, 8 Oct 2024 01:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 17:38:51.416051
- Title: Stereotype or Personalization? User Identity Biases Chatbot Recommendations
- Title(参考訳): ステレオタイプかパーソナライズか? : ユーザアイデンティティがチャットボットの推薦を補助する
- Authors: Anjali Kantharuban, Jeremiah Milbauer, Emma Strubell, Graham Neubig,
- Abstract要約: 大規模言語モデル(LLM)は,ユーザが何を望んでいるのか,何者なのかを反映したレコメンデーションを生成する。
モデルが、ユーザが意図的に自身のアイデンティティを明らかにするかどうかに関わらず、人種的にステレオタイプなレコメンデーションを生成することがわかった。
実験の結果,ユーザの識別がモデルレコメンデーションに大きく影響しているにもかかわらず,モデル応答はユーザクエリに応答して,この事実を難読化することがわかった。
- 参考スコア(独自算出の注目度): 54.38329151781466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate that when people use large language models (LLMs) to generate recommendations, the LLMs produce responses that reflect both what the user wants and who the user is. While personalized recommendations are often desired by users, it can be difficult in practice to distinguish cases of bias from cases of personalization: we find that models generate racially stereotypical recommendations regardless of whether the user revealed their identity intentionally through explicit indications or unintentionally through implicit cues. We argue that chatbots ought to transparently indicate when recommendations are influenced by a user's revealed identity characteristics, but observe that they currently fail to do so. Our experiments show that even though a user's revealed identity significantly influences model recommendations (p < 0.001), model responses obfuscate this fact in response to user queries. This bias and lack of transparency occurs consistently across multiple popular consumer LLMs (gpt-4o-mini, gpt-4-turbo, llama-3-70B, and claude-3.5) and for four American racial groups.
- Abstract(参考訳): 大規模言語モデル(LLM)を用いてレコメンデーションを生成すると、LLMはユーザが望むものとユーザが誰であるかの両方を反映した応答を生成する。
パーソナライズされたレコメンデーションはしばしばユーザによって望まれるが、偏見のケースとパーソナライズされたケースを区別することは困難である。
チャットボットは、ユーザーが明らかにしたアイデンティティの特徴によって、いつレコメンデーションが影響されるかを透過的に示すべきであるが、現在そうしていないことを観察すべきである、と我々は主張する。
実験の結果, ユーザの識別がモデルレコメンデーション(p < 0.001)に大きく影響しているにもかかわらず, モデル応答はユーザクエリに応答して, この事実を曖昧にすることがわかった。
このバイアスと透明性の欠如は、複数の一般消費者LCM(gpt-4o-mini, gpt-4-turbo, llama-3-70B, claude-3.5)と4つの人種グループで一貫して起こる。
関連論文リスト
- ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - Personalized Language Modeling from Personalized Human Feedback [49.344833339240566]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、人間の好みに合わせて大きな言語モデルを微調整するために一般的に用いられる。
本研究では,パーソナライズされた言語モデルを構築する手法を開発することにより,この問題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-02-06T04:18:58Z) - Separating and Learning Latent Confounders to Enhancing User Preferences Modeling [6.0853798070913845]
我々は、推薦のための新しいフレームワーク、SLFR(Separating and Learning Latent Confounders for Recommendation)を提案する。
SLFRは、未測定の共同設立者の表現を取得し、ユーザ嗜好と未測定の共同設立者を遠ざけ、反実的なフィードバックを識別する。
5つの実世界のデータセットで実験を行い、本手法の利点を検証した。
論文 参考訳(メタデータ) (2023-11-02T08:42:50Z) - Are Personalized Stochastic Parrots More Dangerous? Evaluating Persona
Biases in Dialogue Systems [103.416202777731]
我々は、対話モデルが採用するペルソナに付随する有害な行動の感度であると定義する「ペルソナバイアス」について検討する。
我々は,人格バイアスを有害な表現と有害な合意のバイアスに分類し,攻撃性,有害継続性,関連性,ステレオタイプ合意,および有害合意の5つの側面において,人格バイアスを測定する包括的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2023-10-08T21:03:18Z) - Aligning Language Models to User Opinions [10.953326025836475]
ユーザの意見や人口統計やイデオロギーが相互予測者ではないことが判明した。
ユーザの意見とユーザ人口、イデオロギーの両方をモデル化することで、LCMを整合させる。
人口統計学とイデオロギーを併用したLCMの典型的なアプローチに加えて,個人ユーザからの最も関連性の高い過去の意見を活用すれば,より正確なユーザ意見の予測が可能になることが判明した。
論文 参考訳(メタデータ) (2023-05-24T09:11:11Z) - Latent User Intent Modeling for Sequential Recommenders [92.66888409973495]
逐次リコメンデータモデルは、プラットフォーム上での氏のインタラクション履歴に基づいて、ユーザが次に対話する可能性のあるアイテムを予測することを学習する。
しかし、ほとんどのシーケンシャルなレコメンデータは、ユーザの意図に対する高いレベルの理解を欠いている。
したがって、インテントモデリングはユーザー理解と長期ユーザーエクスペリエンスの最適化に不可欠である。
論文 参考訳(メタデータ) (2022-11-17T19:00:24Z) - Recommendation with User Active Disclosing Willingness [20.306413327597603]
本研究では,ユーザが異なる行動を公開する上で,その「意志」を示すことを許される,新しい推薦パラダイムについて検討する。
我々は,推薦品質とユーザ開示意欲のバランスをとる上で,モデルの有効性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-10-25T04:43:40Z) - Causal Disentanglement with Network Information for Debiased
Recommendations [34.698181166037564]
近年の研究では、因果的観点からレコメンデーターシステムをモデル化することで、デビアスを提案する。
この設定における重要な課題は、隠れた共同設立者を説明することだ。
我々は,ネットワーク情報(すなわち,ユーザ・ソーシャルおよびユーザ・イテムネットワーク)を活用して,隠れた共同創設者をよりよく近似することを提案する。
論文 参考訳(メタデータ) (2022-04-14T20:55:11Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。