論文の概要: On the Alignment of Large Language Models with Global Human Opinion
- arxiv url: http://arxiv.org/abs/2509.01418v1
- Date: Mon, 01 Sep 2025 12:19:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.684862
- Title: On the Alignment of Large Language Models with Global Human Opinion
- Title(参考訳): グローバル・ヒューマン・オピニオンを用いた大規模言語モデルのアライメントについて
- Authors: Yang Liu, Masahiro Kaneko, Chenhui Chu,
- Abstract要約: 本研究は,世界,言語,時間次元にわたる大規模言語モデル(LLM)における意見アライメントの話題を包括的に調査した初めての事例である。
我々は,世界価値調査(WVS)に基づく評価フレームワークを構築し,LLMと人間の意見の整合性を体系的に評価する。
LLMは少数の国でのみ意見が適切あるいは過度に調整され、ほとんどの国で意見が過度に調整されていることがわかった。
- 参考スコア(独自算出の注目度): 36.1655217879788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today's large language models (LLMs) are capable of supporting multilingual scenarios, allowing users to interact with LLMs in their native languages. When LLMs respond to subjective questions posed by users, they are expected to align with the views of specific demographic groups or historical periods, shaped by the language in which the user interacts with the model. Existing studies mainly focus on researching the opinions represented by LLMs among demographic groups in the United States or a few countries, lacking worldwide country samples and studies on human opinions in different historical periods, as well as lacking discussion on using language to steer LLMs. Moreover, they also overlook the potential influence of prompt language on the alignment of LLMs' opinions. In this study, our goal is to fill these gaps. To this end, we create an evaluation framework based on the World Values Survey (WVS) to systematically assess the alignment of LLMs with human opinions across different countries, languages, and historical periods around the world. We find that LLMs appropriately or over-align the opinions with only a few countries while under-aligning the opinions with most countries. Furthermore, changing the language of the prompt to match the language used in the questionnaire can effectively steer LLMs to align with the opinions of the corresponding country more effectively than existing steering methods. At the same time, LLMs are more aligned with the opinions of the contemporary population. To our knowledge, our study is the first comprehensive investigation of the topic of opinion alignment in LLMs across global, language, and temporal dimensions. Our code and data are publicly available at https://github.com/nlply/global-opinion-alignment.
- Abstract(参考訳): 今日の大規模言語モデル(LLM)は多言語シナリオをサポートし、ネイティブ言語でLLMと対話することができる。
LLMは,ユーザが提案する主観的な質問に応答すると,ユーザがモデルと対話する言語によって形成される,特定の人口集団や歴史的期間の視点と一致することが期待される。
現存する研究は、アメリカ合衆国やいくつかの国の人口統計学的グループにおいて、LLMが代表する意見の研究に重点を置いており、世界各国のサンプルや、異なる時代における人間の意見の研究は欠如しており、LLMの運営に言語を使うことについての議論も欠如している。
さらに、LLMの意見の整合性に対するプロンプト言語の影響も見落としている。
本研究では,これらのギャップを埋めることが目的である。
この目的のために,世界価値調査(WVS)に基づく評価枠組みを構築し,世界各国,言語,歴史期間におけるLLMと人的意見の整合性を体系的に評価する。
LLMは少数の国でのみ意見が適切あるいは過度に調整され、ほとんどの国で意見が過度に調整されていることがわかった。
さらに、アンケートで使用する言語に適合するプロンプトの言語を変更することで、既存のステアリング方法よりも、対応する国の意見と効果的に整合するLLMを効果的に操ることが可能となる。
同時に、LLMは現代の人口の意見とより一致している。
我々の知る限り、我々の研究は世界,言語,時間次元にまたがるLLMにおける意見アライメントのトピックを包括的に調査した初めてのものである。
私たちのコードとデータはhttps://github.com/nlply/global-opinion-alignment.comで公開されています。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - OMGEval: An Open Multilingual Generative Evaluation Benchmark for Large
Language Models [59.54423478596468]
OMGEvalは、オープンソースの多言語生成テストセットであり、異なる言語におけるLLMの能力を評価することができる。
各言語について、OMGEvalは804のオープンエンド質問を提供し、LLMの重要な機能を幅広くカバーしている。
具体的には、OMGEvalの現在のバージョンには5つの言語(Zh, Ru, Fr, Es, Ar)が含まれている。
論文 参考訳(メタデータ) (2024-02-21T04:42:41Z) - Large Language Models: A Survey [66.39828929831017]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Towards Measuring the Representation of Subjective Global Opinions in Language Models [26.999751306332165]
大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
論文 参考訳(メタデータ) (2023-06-28T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。