論文の概要: Measuring Political Stance and Consistency in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.17016v1
- Date: Thu, 15 Jan 2026 06:12:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.494202
- Title: Measuring Political Stance and Consistency in Large Language Models
- Title(参考訳): 大規模言語モデルにおける政治的スタンスと一貫性の測定
- Authors: Salah Feras Alali, Mohammad Nashat Maasfeh, Mucahid Kutlu, Saban Kardas,
- Abstract要約: 政治に敏感な問題24件について,9つの大規模言語モデルのスタンスを5つのプロンプト手法を用いて評価した。
モデルはいくつかの問題に対して反対の姿勢をとることが多く、いくつかのポジションはプロンプトで順応可能であり、他のポジションは安定している。
- 参考スコア(独自算出の注目度): 1.1296803881058548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the incredible advancements in Large Language Models (LLMs), many people have started using them to satisfy their information needs. However, utilizing LLMs might be problematic for political issues where disagreement is common and model outputs may reflect training-data biases or deliberate alignment choices. To better characterize such behavior, we assess the stances of nine LLMs on 24 politically sensitive issues using five prompting techniques. We find that models often adopt opposing stances on several issues; some positions are malleable under prompting, while others remain stable. Among the models examined, Grok-3-mini is the most persistent, whereas Mistral-7B is the least. For issues involving countries with different languages, models tend to support the side whose language is used in the prompt. Notably, no prompting technique alters model stances on the Qatar blockade or the oppression of Palestinians. We hope these findings raise user awareness when seeking political guidance from LLMs and encourage developers to address these concerns.
- Abstract(参考訳): 大きな言語モデル(LLM)の驚くべき進歩により、多くの人々が情報ニーズを満たすためにそれを使い始めています。
しかし、意見の不一致が一般的であり、モデル出力がトレーニングデータのバイアスや意図的なアライメントの選択を反映する政治的問題において、LSMの利用は問題となるかもしれない。
そこで本稿では, 政治に敏感な問題24件に対して, 5つのプロンプト技術を用いて, 9つのLDMの姿勢を評価する。
モデルはいくつかの問題に対して反対の姿勢をとることが多く、いくつかのポジションはプロンプトの下で順応可能であり、他のポジションは安定している。
調査されたモデルの中で、Grok-3-miniが最も永続的であるのに対し、Mistral-7Bは最小である。
異なる言語を持つ国に関わる問題に対して、モデルはプロンプトで言語が使用される側をサポートする傾向にある。
特に、カタール封鎖やパレスチナ人の抑圧に対するモデル姿勢を変えるプロンプト技術は存在しない。
これらの発見は、LSMから政治的ガイダンスを求める際にユーザーの意識を高め、開発者がこれらの懸念に対処するよう促すことを願っている。
関連論文リスト
- Multilingual Political Views of Large Language Models: Identification and Steering [11.071018930042909]
大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
政治コンパステスト(Political Compass Test)を用いて,14言語にまたがる7つのモデルの評価を行った。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
論文 参考訳(メタデータ) (2025-07-30T12:42:35Z) - IssueBench: Millions of Realistic Prompts for Measuring Issue Bias in LLM Writing Assistance [49.605835017477034]
IssueBenchは2.49mの現実的な英語のプロンプトで、大きな言語モデルにおける問題バイアスを測定する。
IssueBench を用いて、10 の最先端 LLM において問題バイアスが一般的で永続的であることを示す。
論文 参考訳(メタデータ) (2025-02-12T13:37:03Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - This Land is {Your, My} Land: Evaluating Geopolitical Biases in Language Models [40.61046400448044]
大規模言語モデル (LLM) では, 異なる言語を問うと, 地理的知識が不整合に記憶されることが示されている。
対象とするケーススタディとして、本質的に議論の的かつ多言語的な課題である領土紛争を考察する。
本稿では,様々な言語における応答のバイアスと一貫性を正確に定量化するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-05-24T01:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。