論文の概要: Large Means Left: Political Bias in Large Language Models Increases with Their Number of Parameters
- arxiv url: http://arxiv.org/abs/2505.04393v1
- Date: Wed, 07 May 2025 13:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.084126
- Title: Large Means Left: Political Bias in Large Language Models Increases with Their Number of Parameters
- Title(参考訳): 大規模言語モデルにおける政治的バイアスは, パラメータ数の増加とともに増大する
- Authors: David Exler, Mark Schutera, Markus Reischl, Luca Rettenberger,
- Abstract要約: 大規模言語モデル(LLM)は、主に多くの人が様々なトピックの主要な情報源として使っている。
LLMは、しばしば事実の誤りを犯したり、データ(幻覚)を作成したり、バイアスを提示したり、ユーザーが誤った情報に晒したり、意見に影響を与えたりする。
我々は、Wale-O-Matのスコアを用いて、ドイツ連邦議会の最近の投票の文脈において、人気のあるLLMの政治的バイアスを定量化する。
- 参考スコア(独自算出の注目度): 0.571853823214391
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing prevalence of artificial intelligence, careful evaluation of inherent biases needs to be conducted to form the basis for alleviating the effects these predispositions can have on users. Large language models (LLMs) are predominantly used by many as a primary source of information for various topics. LLMs frequently make factual errors, fabricate data (hallucinations), or present biases, exposing users to misinformation and influencing opinions. Educating users on their risks is key to responsible use, as bias, unlike hallucinations, cannot be caught through data verification. We quantify the political bias of popular LLMs in the context of the recent vote of the German Bundestag using the score produced by the Wahl-O-Mat. This metric measures the alignment between an individual's political views and the positions of German political parties. We compare the models' alignment scores to identify factors influencing their political preferences. Doing so, we discover a bias toward left-leaning parties, most dominant in larger LLMs. Also, we find that the language we use to communicate with the models affects their political views. Additionally, we analyze the influence of a model's origin and release date and compare the results to the outcome of the recent vote of the Bundestag. Our results imply that LLMs are prone to exhibiting political bias. Large corporations with the necessary means to develop LLMs, thus, knowingly or unknowingly, have a responsibility to contain these biases, as they can influence each voter's decision-making process and inform public opinion in general and at scale.
- Abstract(参考訳): 人工知能の普及に伴い、これらの前処理がユーザに与える影響を軽減するために、固有のバイアスを慎重に評価する必要がある。
大規模言語モデル(LLM)は、主に多くの人が様々なトピックの主要な情報源として使っている。
LLMは、しばしば事実の誤りを犯したり、データ(幻覚)を作成したり、バイアスを提示したり、ユーザーが誤った情報に晒したり、意見に影響を与えたりする。
偏見は幻覚とは違い、データ検証では捉えられないため、リスクをユーザに教育することが責任ある利用の鍵となる。
我々は、Wale-O-Matのスコアを用いて、ドイツ連邦議会の最近の投票の文脈において、人気のあるLLMの政治的バイアスを定量化する。
この尺度は、個人の政治的見解とドイツの政党の立場の整合性を測定する。
モデルのアライメントスコアを比較して、彼らの政治的嗜好に影響を与える要因を特定する。
そうすることで、左派政党に対する偏見が発見され、最も大きなLLMにおいて支配的となる。
また、モデルとのコミュニケーションに使用する言語が、彼らの政治的見解に影響を与えることもわかりました。
さらに、モデルの起源とリリース日の影響を分析し、その結果を連邦議会の最近の投票結果と比較する。
我々の結果は、LLMは政治的偏見を示す傾向があることを示唆している。
LLMを開発するために必要な手段を持つ大企業は、各投票者の意思決定プロセスに影響を及ぼし、世論を一般に、あるいは大規模に伝えることができるため、故意に、あるいは無知に、これらのバイアスを包含する責任がある。
関連論文リスト
- Large Language Models are often politically extreme, usually ideologically inconsistent, and persuasive even in informational contexts [1.9782163071901029]
大規模言語モデル(LLM)は、人々が情報を取得し、世界と対話する方法を根本的に変える、変革的な技術である。
LLMの全体的な党派的嗜好は、特定のトピックに対する極端な見解の相違による純結果であることを示す。
ランダム化実験では、LLMは情報検索の文脈においても、自らの好みを政治的説得力に広めることができることを示す。
論文 参考訳(メタデータ) (2025-05-07T06:53:59Z) - Unpacking Political Bias in Large Language Models: A Cross-Model Comparison on U.S. Politics [6.253258189994455]
人間社会における普遍的な現象としての政治的偏見は、大規模言語モデルに移される可能性がある。
政治バイアスは、モデルスケールとリリース日とともに進化し、LLMの地域要因にも影響される。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Bias in LLMs as Annotators: The Effect of Party Cues on Labelling Decision by Large Language Models [0.0]
我々は、Large Language Models (LLMs) において同様のバイアスをアノテーションとしてテストする。
人間とは違い、極端に左派や右派からの発言を誘発しても、LSMは顕著な偏見を呈する。
論文 参考訳(メタデータ) (2024-08-28T16:05:20Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。