論文の概要: Measuring Algorithmic Partisanship via Zero-Shot Classification and Its Implications on Political Discourse
- arxiv url: http://arxiv.org/abs/2510.01258v1
- Date: Thu, 25 Sep 2025 05:26:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.763774
- Title: Measuring Algorithmic Partisanship via Zero-Shot Classification and Its Implications on Political Discourse
- Title(参考訳): ゼロショット分類によるアルゴリズム的参加度の測定とその政治談話への影響
- Authors: Nathan Junzi Chen,
- Abstract要約: 本稿では、ゼロショット分類手法を用いて、アルゴリズムによる政治的パルチザン性を評価する。
6つの主要な大言語モデルにまたがる1800のモデル応答は、4つの異なる微調整された分類アルゴリズムに個別に入力された。
その結果、リベラルな権威主義的なアライメントが増幅され、推論のスーパーセッションや缶詰の拒絶の顕著な例が示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Amidst the rapid normalization of generative artificial intelligence (GAI), intelligent systems have come to dominate political discourse across information mediums. However, internalized political biases stemming from training data skews, human prejudice, and algorithmic flaws continue to plague the novel technology. This paper employs a zero-shot classification approach to evaluate algorithmic political partisanship through a methodical combination of ideological alignment, topicality, response sentiment, and objectivity. A total of 1800 model responses across six mainstream large language models (LLMs) were individually input into four distinct fine-tuned classification algorithms, each responsible for computing an aforementioned bias evaluation metric. Results show an amplified liberal-authoritarian alignment across all six LLMs evaluated, with notable instances of reasoning supersessions and canned refusals. The study subsequently highlights the psychological influences underpinning human-computer interactions and how intrinsic biases can permeate public discourse. The resulting distortion of the political landscape can ultimately manifest as conformity or polarization, depending on a region's pre-existing socio-political structures.
- Abstract(参考訳): 生成人工知能(GAI)の急速な正規化の中で、知的システムは情報媒体間の政治的議論を支配している。
しかし、トレーニングデータスキュー、人間の偏見、アルゴリズム上の欠陥から生じる内部的な政治的偏見は、この新技術に悩まされ続けている。
本稿では、イデオロギー的アライメント、話題性、反応感情、客観性といった手法の組み合わせにより、アルゴリズム的政治的パルチザン性を評価するため、ゼロショット分類手法を用いる。
6つの主要言語モデル(LLM)にまたがる1800のモデル応答は、4つの異なる微調整された分類アルゴリズムに個別に入力され、それぞれが上記のバイアス評価メトリックを演算する責任を負った。
その結果、評価された6つのLDMのすべてに対して、リベラルな権威主義的アライメントが増幅されたことが示され、特に推理スーパーセッションや缶詰の拒絶が顕著であった。
この研究はその後、人間とコンピュータの相互作用を支える心理的影響と、内在的バイアスが公衆の会話を浸透させる方法について強調した。
結果として生じる政治的景観の歪みは、最終的に、地域の既存の社会・政治構造に依存して、整合性または偏極として表される。
関連論文リスト
- Political Ideology Shifts in Large Language Models [6.062377561249039]
大規模言語モデル(LLM)における合成ペルソナの導入がイデオロギー表現に与える影響について検討する。
分析の結果, より大型のモデルでは, より広範かつ暗黙的なイデオロギー的カバレッジが示され, (ii) 明示的なイデオロギー的手がかりへの感受性は, 規模に応じて増大し, (iii) モデルでは左リバタリアン的プライミングよりも右権威主義に強く反応し, (iv) ペルソナ記述における主題的内容はイデオロギー的変化を誘発し, サイズを増幅することがわかった。
論文 参考訳(メタデータ) (2025-08-22T00:16:38Z) - Measuring Political Preferences in AI Systems: An Integrative Approach [0.0]
この研究は、主要なAIシステムにおける政治的偏見を評価するために、マルチメソッドアプローチを採用する。
その結果、現代のAIシステムでは、一貫した左利きバイアスが示される。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
論文 参考訳(メタデータ) (2025-03-04T01:40:28Z) - Political Neutrality in AI Is Impossible- But Here Is How to Approximate It [97.59456676216115]
真の政治的中立性は、主観的な性質と、AIトレーニングデータ、アルゴリズム、ユーザーインタラクションに固有のバイアスのため、実現可能でも普遍的に望ましいものではない、と我々は主張する。
我々は、政治的中立性の「近似」という用語を使って、到達不可能な絶対値から達成不可能で実用的なプロキシへ焦点を移す。
論文 参考訳(メタデータ) (2025-02-18T16:48:04Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Finding the white male: The prevalence and consequences of algorithmic gender and race bias in political Google searches [0.0]
本稿では,4つの研究のシリーズにおいて,少数化群のアルゴリズム表現の枠組みを提案し,検証する。
第一に、2つのアルゴリズムによる政治画像検索の監査は、検索エンジンが女性や非白人の政治家を軽視して、構造的不平等を反映し、維持していることを示す。
第二に、2つのオンライン実験は、これらのバイアスが、アルゴリズム表現の偏見によって、政治的現実の認識を歪め、白人で男性化された政治観を積極的に補強することを示している。
論文 参考訳(メタデータ) (2024-05-01T05:57:03Z) - The Face of Populism: Examining Differences in Facial Emotional Expressions of Political Leaders Using Machine Learning [50.24983453990065]
私たちは15カ国の政治指導者の220本のYouTubeビデオのサンプルをディープラーニングで処理しています。
ポピュリスト・レトリックの度合いが異なるリーダー群間での負の感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。