論文の概要: Exploring Changes in Nation Perception with Nationality-Assigned Personas in LLMs
- arxiv url: http://arxiv.org/abs/2406.13993v1
- Date: Thu, 20 Jun 2024 04:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 17:17:16.744410
- Title: Exploring Changes in Nation Perception with Nationality-Assigned Personas in LLMs
- Title(参考訳): LLMにおける国籍指定者による国家認知の変化を探る
- Authors: Mahammed Kamruzzaman, Gene Louis Kim,
- Abstract要約: LLMとペルソナの組み合わせは、西欧諸国が好む傾向にある。
国家の個人は、LLMの行動にもっと焦点を合わせ、国家の個人自身の地域をより好意的に見るよう促すことに気付きました。
東ヨーロッパ、ラテンアメリカ、アフリカ諸国は、異なる国籍の人格によってより否定的に見なされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Persona assignment has become a common strategy for customizing LLM use to particular tasks and contexts. In this study, we explore how perceptions of different nations change when LLMs are assigned specific nationality personas. We assign 193 different nationality personas (e.g., an American person) to four LLMs and examine how the LLM perceptions of countries change. We find that all LLM-persona combinations tend to favor Western European nations, though nation-personas push LLM behaviors to focus more on and view more favorably the nation-persona's own region. Eastern European, Latin American, and African nations are viewed more negatively by different nationality personas. Our study provides insight into how biases and stereotypes are realized within LLMs when adopting different national personas. In line with the "Blueprint for an AI Bill of Rights", our findings underscore the critical need for developing mechanisms to ensure LLMs uphold fairness and not over-generalize at a global scale.
- Abstract(参考訳): ペルソナ割り当ては、特定のタスクやコンテキストに対するLLMの使用をカスタマイズするための一般的な戦略となっている。
本研究では, LLMが特定の国籍のペルソナに割り当てられたとき, 異なる国の知覚がどう変化するかを検討する。
我々は、193の異なる国籍人格(例えば、アメリカ人)を4つの LLM に割り当て、国家に対する LLM の認識がどのように変化するかを検討する。
LLMと人格の組み合わせはすべて西欧諸国を好む傾向にあるが、国家と人格はLLMの行動をより重視し、国家と人格の地域をより有利に見るように促す。
東ヨーロッパ、ラテンアメリカ、アフリカ諸国は、異なる国籍の人格によってより否定的に見なされている。
我々の研究は、異なる国家的ペルソナを採用する際に、LCM内でバイアスやステレオタイプがどのように実現されるかについての洞察を提供する。
我々の発見は、「AI権利章典の青写真」に則って、LLMが公正さを保ち、世界規模で過度に一般化しないことを保証するためのメカニズム開発の必要性を浮き彫りにしている。
関連論文リスト
- GermanPartiesQA: Benchmarking Commercial Large Language Models for Political Bias and Sycophancy [20.06753067241866]
我々は,OpenAI, Anthropic, Cohereの6つのLDMのアライメントをドイツ政党の立場と比較した。
我々は、主要なドイツの国会議員のベンチマークデータと社会デマグラフィーデータを用いて、迅速な実験を行う。
論文 参考訳(メタデータ) (2024-07-25T13:04:25Z) - Decoding Multilingual Moral Preferences: Unveiling LLM's Biases Through the Moral Machine Experiment [11.82100047858478]
本稿では,多言語環境下での5つの大規模言語モデルの道徳的嗜好を検討するために,モラルマシン実験(MME)に基づく。
我々は、MMEの6500のシナリオを生成し、どのアクションをとるか10言語でモデルを促す。
我々の分析によると、全てのLLMはある程度異なる道徳的偏見を阻害し、人間の嗜好と異なるだけでなく、モデル自体の複数の言語にもまたがっている。
論文 参考訳(メタデータ) (2024-07-21T14:48:13Z) - Multilingual Trolley Problems for Language Models [138.0995992619116]
この研究は、「道徳機械実験」という人間の道徳的嗜好に関する大規模横断的な研究から着想を得たものである。
大規模な言語モデル(LLM)は、英語、韓国語、ハンガリー語、中国語などの言語では人間の好みと一致しているが、ヒンディー語やソマリ語(アフリカ)のような言語では一致していないことを示す。
また, LLMが道徳的選択に与える説明を特徴付けるとともに, GPT-3によるGPT-4の決定と実用主義の裏側において, 公平性が最も有力であることを示す。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - How Well Do LLMs Represent Values Across Cultures? Empirical Analysis of LLM Responses Based on Hofstede Cultural Dimensions [9.275967682881944]
ユーザの既知の国のステレオタイプ値に基づいて,大規模言語モデルがユーザに対して異なる値を示すかどうかを理解することが重要である。
我々は,5つのホフスティード文化次元に基づく一連のアドバイス要請で,異なるLCMを刺激する。
LLMは、ある価値の一方の側面と他方の側面を区別することができ、また、国が異なる価値を持っていることを理解できます。
論文 参考訳(メタデータ) (2024-06-21T00:58:01Z) - Two Tales of Persona in LLMs: A Survey of Role-Playing and Personalization [33.513689684998035]
対話文学で最初に採用されたペルソナの概念は、大きな言語モデルを特定の文脈に合わせるための有望な枠組みとして復活してきた。
ギャップを埋めるために、フィールドの現状を分類するための総合的な調査を提示する。
論文 参考訳(メタデータ) (2024-06-03T10:08:23Z) - CulturalTeaming: AI-Assisted Interactive Red-Teaming for Challenging LLMs' (Lack of) Multicultural Knowledge [69.82940934994333]
我々は、人間とAIのコラボレーションを活用して、挑戦的な評価データセットを構築するインタラクティブなレッドチームシステムであるCulturalTeamingを紹介する。
我々の研究は、CulturalTeamingの様々なAI支援モードが、文化的な質問の作成においてアノテータを支援することを明らかにした。
CULTURALBENCH-V0.1は、ユーザのリピートの試みにより、コンパクトだが高品質な評価データセットである。
論文 参考訳(メタデータ) (2024-04-10T00:25:09Z) - OMGEval: An Open Multilingual Generative Evaluation Benchmark for Large
Language Models [59.54423478596468]
OMGEvalは、オープンソースの多言語生成テストセットであり、異なる言語におけるLLMの能力を評価することができる。
各言語について、OMGEvalは804のオープンエンド質問を提供し、LLMの重要な機能を幅広くカバーしている。
具体的には、OMGEvalの現在のバージョンには5つの言語(Zh, Ru, Fr, Es, Ar)が含まれている。
論文 参考訳(メタデータ) (2024-02-21T04:42:41Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Large Language Models are Geographically Biased [51.37609528538606]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Large language models cannot replace human participants because they
cannot portray identity groups [40.865099955752825]
我々は,大きな言語モデル (LLM) は,人口集団の表現の誤りとフラット化の両方を負うと論じている。
アイデンティティーがアイデンティティーを不可欠なものにする方法について、第3の考察について論じる。
全体としては、LLMが課題に関連のある人物を置き換えることを意図したユースケースに注意を喚起する。
論文 参考訳(メタデータ) (2024-02-02T21:21:06Z) - CMMLU: Measuring massive multitask language understanding in Chinese [133.70911295934746]
本稿では, 自然科学, 社会科学, 工学, 人文科学など, さまざまな分野をカバーする総合的な中国のベンチマークを紹介する。
CMMLUは、中国語の文脈における大きな言語モデルの知識と推論能力の評価におけるギャップを埋める。
論文 参考訳(メタデータ) (2023-06-15T15:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。