論文の概要: Presumed Cultural Identity: How Names Shape LLM Responses
- arxiv url: http://arxiv.org/abs/2502.11995v2
- Date: Mon, 10 Mar 2025 10:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:06.29787
- Title: Presumed Cultural Identity: How Names Shape LLM Responses
- Title(参考訳): 文化のアイデンティティを推定する - LLMの応答をどう名前付けるか
- Authors: Siddhesh Pawar, Arnav Arora, Lucie-Aimée Kaffee, Isabelle Augenstein,
- Abstract要約: アイデンティティのコア指標として名前を使うことは、複雑なアイデンティティの過剰な単純化につながる可能性がある。
名前は個人化にとって重要な情報である。
文化的推定値を測定することで、名前に関連付けられたバイアスについて検討する。
- 参考スコア(独自算出の注目度): 38.76013931697404
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Names are deeply tied to human identity. They can serve as markers of individuality, cultural heritage, and personal history. However, using names as a core indicator of identity can lead to over-simplification of complex identities. When interacting with LLMs, user names are an important point of information for personalisation. Names can enter chatbot conversations through direct user input (requested by chatbots), as part of task contexts such as CV reviews, or as built-in memory features that store user information for personalisation. We study biases associated with names by measuring cultural presumptions in the responses generated by LLMs when presented with common suggestion-seeking queries, which might involve making assumptions about the user. Our analyses demonstrate strong assumptions about cultural identity associated with names present in LLM generations across multiple cultures. Our work has implications for designing more nuanced personalisation systems that avoid reinforcing stereotypes while maintaining meaningful customisation.
- Abstract(参考訳): 名前は人間のアイデンティティと深く結びついている。
個人性、文化遺産、個人的歴史の指標として機能する。
しかし、アイデンティティのコア指標として名前を使うことは、複雑なアイデンティティの過剰な単純化につながる可能性がある。
LLMと対話する場合、ユーザ名はパーソナライズのための重要な情報ポイントである。
名前は、直接ユーザー入力(チャットボットが要求する)を通じてチャットボットの会話を入力することができ、CVレビューのようなタスクコンテキストや、ユーザー情報をパーソナライズするための内蔵メモリ機能の一部として利用できる。
本研究では, LLM が生成する応答の文化的推定値を用いて, ユーザに関する仮定を含む一般的な提案探索クエリを提示し, 名前に関連付けられたバイアスについて検討する。
複数の文化にまたがる LLM 世代の名前に関連付けられた文化的アイデンティティに関する強い仮定を考察した。
我々の研究は、意味のあるカスタマイズを維持しながら、ステレオタイプを強化することを避ける、よりニュアンスなパーソナライゼーションシステムの設計に影響を及ぼす。
関連論文リスト
- What Should LLMs Forget? Quantifying Personal Data in LLMs for Right-to-Be-Forgotten Requests [0.0]
大きな言語モデル(LLM)は、個人情報を記憶し、公開し、EU、特に忘れられる権利(RTBF)へのコンプライアンスに関する懸念を提起する。
既存の機械学習手法は、忘れるべきデータが既に知られているが、モデルに格納されている個々の関連性を特定する方法には対処していないと仮定する。
WikiMemは、Wikidataから243の人間関連プロパティをカバーした5000以上の自然言語カナリアのデータセットと、LLMにおける人事関連を定量化するためのモデルに依存しないメトリクスを紹介する。
論文 参考訳(メタデータ) (2025-07-15T09:28:44Z) - Reading Between the Prompts: How Stereotypes Shape LLM's Implicit Personalization [6.781972039785424]
LLM(Generative Large Language Models)は、会話における微妙な手がかりからユーザの人口統計情報を推測する。
この結果から,LLMのユーザアイデンティティの表現方法に対する透明性の向上とコントロールの必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2025-05-22T09:48:51Z) - Can Large Language Models Really Recognize Your Name? [23.4365383606717]
現代大規模言語モデル(LLM)は、曖昧な文脈のため、短いテキストスニペットでも定期的に人名を見落としている。
AMBENCHは、明らかに不明瞭な人物名のベンチマークデータセットである。
論文 参考訳(メタデータ) (2025-05-20T16:05:05Z) - Know Me, Respond to Me: Benchmarking LLMs for Dynamic User Profiling and Personalized Responses at Scale [51.9706400130481]
大規模言語モデル(LLM)は、幅広いタスクでユーザのためのパーソナライズされたアシスタントとして登場した。
PERSONAMEMは180以上のユーザ-LLMインタラクション履歴を持つキュレートされたユーザプロファイルを備えている。
LLMチャットボットのユーザプロファイルの現在状況に応じて,最も適切な応答を識別する能力を評価する。
論文 参考訳(メタデータ) (2025-04-19T08:16:10Z) - Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,キャラクタの言語パターンと特徴的思考過程の両方を再現するモデルであるキャラクタボットを紹介する。
ケーススタディとしてLu Xunを用いて、17冊のエッセイコレクションから得られた4つのトレーニングタスクを提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - Retrieval-Augmented Personalization for Multimodal Large Language Models [53.304699445700926]
本稿では,MLLMのパーソナライズのためのRAP(Retrieval Augmented Personalization)フレームワークを紹介する。
RAPは、外部データベースを更新することで、リアルタイムの概念編集を可能にする。
RAP-MLLMは、追加の微調整なしで無限の視覚概念に一般化することができる。
論文 参考訳(メタデータ) (2024-10-17T09:10:26Z) - Personalized Visual Instruction Tuning [30.677058613937067]
MLLM(Multimodal large language model)は、一般的な会話を行うが、特定の個人をターゲットにした対話を行うことができない。
この欠陥は、モバイルデバイスのカスタマイズされた視覚アシスタントなど、パーソナライズされた設定におけるMLLMの適用を妨げる。
我々は、MLLMが画像内のターゲット個人を識別できるように設計された新しいデータキュレーションおよびトレーニングフレームワークである、パーソナライズド・ビジュアル・インストラクション・チューニング(PVIT)を紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:46:53Z) - Stereotype or Personalization? User Identity Biases Chatbot Recommendations [65.10885980789293]
モデルでは,ユーザが意識を意図的に明らかにしたかどうかに関わらず,人種的にステレオタイプなレコメンデーションを生成する。
チャットボットは、ユーザーが明らかにしたアイデンティティの特徴によって、いつレコメンデーションが影響されるかを透過的に示すべきであるが、現在そうしていないことを観察すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-10-08T01:51:55Z) - GIEBench: Towards Holistic Evaluation of Group Identity-based Empathy for Large Language Models [18.92131015111012]
大規模言語モデル(LLM)の共感評価のためのベンチマークであるGIEBenchを紹介する。
GIEBenchは11のアイデンティティディメンションを含み、97のグループアイデンティティをカバーする。
LLMを23個評価したところ、これらのLCMは異なるアイデンティティの観点から理解されているものの、これらの視点を採用するための明示的な指示なしでは、同一の共感を連続的に示さないことが明らかとなった。
論文 参考訳(メタデータ) (2024-06-21T06:50:42Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - Compositional Demographic Word Embeddings [41.89745054269992]
そこで本稿では,ユーザのための完全あるいは部分的な人口統計情報から構成的に派生した,人口動態特異的な単語表現を用いたパーソナライズされた単語埋め込みを提案する。
その結果, 言語モデルと単語関連性という2つの課題において, 人口統計学的に認識された単語表現が, 一般的な単語表現よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-10-06T19:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。