論文の概要: One Persona, Many Cues, Different Results: How Sociodemographic Cues Impact LLM Personalization
- arxiv url: http://arxiv.org/abs/2601.18572v1
- Date: Mon, 26 Jan 2026 15:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.892975
- Title: One Persona, Many Cues, Different Results: How Sociodemographic Cues Impact LLM Personalization
- Title(参考訳): 一つの人格、多くのクイズ、異なる結果:ソシオドモグラフィークイズがLLMのパーソナライゼーションにどのように影響するか
- Authors: Franziska Weeber, Vera Neplenbroek, Jan Batzner, Sebastian Padó,
- Abstract要約: ソシオデマトグラフィーサブグループによるLLMのパーソナライゼーションは、しばしばユーザー体験を改善するが、グループ間でバイアスや不公平な結果を導入または増幅することもできる。
従来の研究では、LPMのバイアスを研究するために、モデルに伝達されるいわゆるペルソナ(sosocidemographic user attribute)が用いられてきた。
我々は、オープンでプロプライエタリな7つのLDMに対して、4つの書き込みとアドバイスタスクで使用される6つのペルソナキューを比較した。
クエは全体的に高い相関関係にあるが、それらはペルソナ間での応答にかなりのばらつきをもたらす。
- 参考スコア(独自算出の注目度): 6.512258839228369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalization of LLMs by sociodemographic subgroup often improves user experience, but can also introduce or amplify biases and unfair outcomes across groups. Prior work has employed so-called personas, sociodemographic user attributes conveyed to a model, to study bias in LLMs by relying on a single cue to prompt a persona, such as user names or explicit attribute mentions. This disregards LLM sensitivity to prompt variations (robustness) and the rarity of some cues in real interactions (external validity). We compare six commonly used persona cues across seven open and proprietary LLMs on four writing and advice tasks. While cues are overall highly correlated, they produce substantial variance in responses across personas. We therefore caution against claims from a single persona cue and recommend future personalization research to evaluate multiple externally valid cues.
- Abstract(参考訳): ソシオデマトグラフィーサブグループによるLLMのパーソナライゼーションは、しばしばユーザー体験を改善するが、グループ間でバイアスや不公平な結果を導入または増幅することもできる。
従来の作業では、モデルに伝達されるいわゆるペルソナ、ソシオデマトグラフィーのユーザ属性を使用して、ユーザ名や明示的な属性参照などのペルソナを1つのキューに頼って、LCMのバイアスを研究する。
これはLLM感度を無視し、実際の相互作用(外部の妥当性)における変動(ロバスト性)といくつかのキューの希薄さを誘導する。
我々は、オープンでプロプライエタリな7つのLDMに対して、4つの書き込みとアドバイスタスクで使用される6つのペルソナキューを比較した。
クエは全体的に高い相関関係にあるが、それらはペルソナ間での応答にかなりのばらつきをもたらす。
そこで我々は,1つのペルソナ・キューからの主張に注意し,複数の外部有効な手がかりを評価するために,将来のパーソナライズ研究を推奨する。
関連論文リスト
- Deep Binding of Language Model Virtual Personas: a Study on Approximating Political Partisan Misperceptions [13.929713456538932]
本稿では,マルチターンインタビュー文として生成した合成ユーザ"バックストリー"を用いた仮想ペルソナ構築手法を提案する。
本研究の背景には,ヒトの反応分布を忠実に再現した仮想的ペルソナと,グループ内・グループ外バイアスのオリジナルの研究で観察されたものと密に一致した効果の大きさが示されている。
論文 参考訳(メタデータ) (2025-04-16T00:10:34Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Investigating Subtler Biases in LLMs: Ageism, Beauty, Institutional, and Nationality Bias in Generative Models [0.0]
本稿では, 年齢や美しさなど, 研究の少ない, 連続的な, 次元に沿ったバイアスについて検討する。
実験心理学において, LLMは, 特定の社会集団に対して, 肯定的, 否定的感情の偏見を広く抱いているか, あるいは「美しいものは良い」バイアスと類似しているかを問う。
論文 参考訳(メタデータ) (2023-09-16T07:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。