論文の概要: The Hidden Bias: A Study on Explicit and Implicit Political Stereotypes in Large Language Models
- arxiv url: http://arxiv.org/abs/2510.08236v1
- Date: Thu, 09 Oct 2025 14:00:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.11018
- Title: The Hidden Bias: A Study on Explicit and Implicit Political Stereotypes in Large Language Models
- Title(参考訳): 隠れバイアス:大規模言語モデルにおける明示的・暗黙的な政治ステレオタイプに関する研究
- Authors: Konrad Löhr, Shuzhou Yuan, Michael Färber,
- Abstract要約: 本研究では,8大言語モデルにおける政治バイアスとステレオタイププロパゲーションについて検討した。
主要な発見は、すべての調査対象モデルにおいて、一貫した左利きのポリト-カルアライメントを示す。
- 参考スコア(独自算出の注目度): 7.696781721646013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increas- ingly integral to information dissemination and decision-making processes. Given their grow- ing societal influence, understanding potential biases, particularly within the political domain, is crucial to prevent undue influence on public opinion and democratic processes. This work investigates political bias and stereotype propa- gation across eight prominent LLMs using the two-dimensional Political Compass Test (PCT). Initially, the PCT is employed to assess the in- herent political leanings of these models. Sub- sequently, persona prompting with the PCT is used to explore explicit stereotypes across vari- ous social dimensions. In a final step, implicit stereotypes are uncovered by evaluating mod- els with multilingual versions of the PCT. Key findings reveal a consistent left-leaning polit- ical alignment across all investigated models. Furthermore, while the nature and extent of stereotypes vary considerably between models, implicit stereotypes elicited through language variation are more pronounced than those iden- tified via explicit persona prompting. Interest- ingly, for most models, implicit and explicit stereotypes show a notable alignment, suggest- ing a degree of transparency or "awareness" regarding their inherent biases. This study un- derscores the complex interplay of political bias and stereotypes in LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、情報伝達や意思決定のプロセスと密接に結びついている。
彼らの成長する社会的影響を考えると、潜在的な偏見、特に政治領域内での理解は、世論や民主的プロセスへの不適切な影響を防ぐために不可欠である。
本研究は,2次元政治コンパステスト (PCT) を用いて, 8つの著名なLDMにおける政治バイアスとステレオタイププロパゲーションについて検討する。
当初、PCTはこれらのモデルの政治的傾向を評価するために使用される。
その後、PCTでプロンプトするペルソナは、Vari-ousの社会的次元を横断する明示的なステレオタイプを探索するために使用される。
最後のステップでは、PCTの多言語バージョンでmod-elを評価することで、暗黙のステレオタイプが発見される。
主要な発見は、すべての調査対象モデルにおいて、一貫した左利きのポリト-カルアライメントを示す。
さらに、ステレオタイプの性質と範囲はモデルによって大きく異なるが、言語の変化によって引き起こされる暗黙のステレオタイプは、明示的なペルソナのプロンプトによって分類されたアイデンティティよりも顕著である。
興味深いことに、ほとんどのモデルにとって、暗黙的かつ明示的なステレオタイプは、顕著なアライメントを示し、提案する。
この研究は、LLMにおける政治的偏見とステレオタイプとの複雑な相互作用をアンダースコアする。
関連論文リスト
- Multilingual Political Views of Large Language Models: Identification and Steering [9.340686908318776]
大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
政治コンパステスト(Political Compass Test)を用いて,14言語にまたがる7つのモデルの評価を行った。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
論文 参考訳(メタデータ) (2025-07-30T12:42:35Z) - Language-Dependent Political Bias in AI: A Study of ChatGPT and Gemini [0.0]
本研究では,大規模言語モデルの政治的傾向と問合せ言語による分化の存在について検討する。
ChatGPTとGeminiは、14の異なる言語を使用して政治的軸検を受けた。
比較分析の結果、ジェミニはChatGPTに比べてリベラルで左翼の傾向が顕著であった。
論文 参考訳(メタデータ) (2025-04-08T21:13:01Z) - Only a Little to the Left: A Theory-grounded Measure of Political Bias in Large Language Models [4.8869340671593475]
プロンプトベースの言語モデルにおける政治的バイアスは、パフォーマンスに影響を与える可能性がある。
我々は、インプットプロンプトを多種多様にテストし、迅速な感度を考慮しつつ、サーベイ設計原則に基づいて構築する。
政治的偏見の尺度は不安定な場合が多いが、一般的には指導訓練モデルでは左派である。
論文 参考訳(メタデータ) (2025-03-20T13:51:06Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。