論文の概要: Presumed Cultural Identity: How Names Shape LLM Responses
- arxiv url: http://arxiv.org/abs/2502.11995v1
- Date: Mon, 17 Feb 2025 16:35:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:15:53.403089
- Title: Presumed Cultural Identity: How Names Shape LLM Responses
- Title(参考訳): 文化のアイデンティティを推定する - LLMの応答をどう名前付けるか
- Authors: Siddhesh Pawar, Arnav Arora, Lucie-Aimée Kaffee, Isabelle Augenstein,
- Abstract要約: アイデンティティのコア指標として名前を使うことは、複雑なアイデンティティの過剰な単純化につながる可能性がある。
名前は個人化にとって重要な情報である。
文化的推定値を測定することで、名前に関連付けられたバイアスについて検討する。
- 参考スコア(独自算出の注目度): 38.76013931697404
- License:
- Abstract: Names are deeply tied to human identity. They can serve as markers of individuality, cultural heritage, and personal history. However, using names as a core indicator of identity can lead to over-simplification of complex identities. When interacting with LLMs, user names are an important point of information for personalisation. Names can enter chatbot conversations through direct user input (requested by chatbots), as part of task contexts such as CV reviews, or as built-in memory features that store user information for personalisation. We study biases associated with names by measuring cultural presumptions in the responses generated by LLMs when presented with common suggestion-seeking queries, which might involve making assumptions about the user. Our analyses demonstrate strong assumptions about cultural identity associated with names present in LLM generations across multiple cultures. Our work has implications for designing more nuanced personalisation systems that avoid reinforcing stereotypes while maintaining meaningful customisation.
- Abstract(参考訳): 名前は人間のアイデンティティと深く結びついている。
個人性、文化遺産、個人的歴史の指標として機能する。
しかし、アイデンティティのコア指標として名前を使うことは、複雑なアイデンティティの過剰な単純化につながる可能性がある。
LLMと対話する場合、ユーザ名はパーソナライズのための重要な情報ポイントである。
名前は、直接ユーザー入力(チャットボットが要求する)を通じてチャットボットの会話を入力することができ、CVレビューのようなタスクコンテキストや、ユーザー情報をパーソナライズするための内蔵メモリ機能の一部として利用できる。
本研究では, LLM が生成する応答の文化的推定値を用いて, ユーザに関する仮定を含む一般的な提案探索クエリを提示し, 名前に関連付けられたバイアスについて検討する。
複数の文化にまたがる LLM 世代の名前に関連付けられた文化的アイデンティティに関する強い仮定を考察した。
我々の研究は、意味のあるカスタマイズを維持しながら、ステレオタイプを強化することを避ける、よりニュアンスなパーソナライゼーションシステムの設計に影響を及ぼす。
関連論文リスト
- Beyond Profile: From Surface-Level Facts to Deep Persona Simulation in LLMs [50.0874045899661]
本稿では,キャラクタの言語パターンと特徴的思考過程の両方を再現するモデルであるキャラクタボットを紹介する。
ケーススタディとしてLu Xunを用いて、17冊のエッセイコレクションから得られた4つのトレーニングタスクを提案する。
これには、外部の言語構造と知識を習得することに焦点を当てた事前訓練タスクと、3つの微調整タスクが含まれる。
言語的正確性と意見理解の3つのタスクにおいて、キャラクタボットを評価し、適応されたメトリクスのベースラインを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-02-18T16:11:54Z) - Retrieval-Augmented Personalization for Multimodal Large Language Models [53.304699445700926]
本稿では,MLLMのパーソナライズのためのRAP(Retrieval Augmented Personalization)フレームワークを紹介する。
RAPは、外部データベースを更新することで、リアルタイムの概念編集を可能にする。
RAP-MLLMは、追加の微調整なしで無限の視覚概念に一般化することができる。
論文 参考訳(メタデータ) (2024-10-17T09:10:26Z) - Personalized Visual Instruction Tuning [30.677058613937067]
MLLM(Multimodal large language model)は、一般的な会話を行うが、特定の個人をターゲットにした対話を行うことができない。
この欠陥は、モバイルデバイスのカスタマイズされた視覚アシスタントなど、パーソナライズされた設定におけるMLLMの適用を妨げる。
我々は、MLLMが画像内のターゲット個人を識別できるように設計された新しいデータキュレーションおよびトレーニングフレームワークである、パーソナライズド・ビジュアル・インストラクション・チューニング(PVIT)を紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:46:53Z) - GIEBench: Towards Holistic Evaluation of Group Identity-based Empathy for Large Language Models [18.92131015111012]
大規模言語モデル(LLM)の共感評価のためのベンチマークであるGIEBenchを紹介する。
GIEBenchは11のアイデンティティディメンションを含み、97のグループアイデンティティをカバーする。
LLMを23個評価したところ、これらのLCMは異なるアイデンティティの観点から理解されているものの、これらの視点を採用するための明示的な指示なしでは、同一の共感を連続的に示さないことが明らかとなった。
論文 参考訳(メタデータ) (2024-06-21T06:50:42Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Compositional Demographic Word Embeddings [41.89745054269992]
そこで本稿では,ユーザのための完全あるいは部分的な人口統計情報から構成的に派生した,人口動態特異的な単語表現を用いたパーソナライズされた単語埋め込みを提案する。
その結果, 言語モデルと単語関連性という2つの課題において, 人口統計学的に認識された単語表現が, 一般的な単語表現よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-10-06T19:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。