論文の概要: Perceived Political Bias in LLMs Reduces Persuasive Abilities
- arxiv url: http://arxiv.org/abs/2602.18092v1
- Date: Fri, 20 Feb 2026 09:33:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.279101
- Title: Perceived Political Bias in LLMs Reduces Persuasive Abilities
- Title(参考訳): LLMにおける政治的バイアスの知覚による説得能力の低下
- Authors: Matthew DiGiuseppe, Joshua Robison,
- Abstract要約: 信頼性攻撃がLSMに基づく説得を減少させるかどうかを検証する。
短いメッセージでは、LSMは回答者の党に偏りがあり、説得力は28%減った。
これらの知見は、会話型AIの説得的影響は、パルチザン的アライメントの知覚によって制約され、政治的に矛盾していることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conversational AI has been proposed as a scalable way to correct public misconceptions and spread misinformation. Yet its effectiveness may depend on perceptions of its political neutrality. As LLMs enter partisan conflict, elites increasingly portray them as ideologically aligned. We test whether these credibility attacks reduce LLM-based persuasion. In a preregistered U.S. survey experiment (N=2144), participants completed a three-round conversation with ChatGPT about a personally held economic policy misconception. Compared to a neutral control, a short message indicating that the LLM was biased against the respondent's party attenuated persuasion by 28%. Transcript analysis indicates that the warnings alter the interaction: respondents push back more and engage less receptively. These findings suggest that the persuasive impact of conversational AI is politically contingent, constrained by perceptions of partisan alignment.
- Abstract(参考訳): 会話AIは、公衆の誤解を修正し、誤情報を広めるためのスケーラブルな方法として提案されている。
しかし、その効果は政治的中立性の認識に依存するかもしれない。
LLMがパルチザンの紛争に突入するにつれ、エリートたちは彼らをイデオロギー的に一致したものとして表現するようになっていった。
これらの信頼性攻撃がLSMに基づく説得を減少させるかどうかを検証する。
事前登録された米国調査実験(N=2144)では、参加者はChatGPTと個人的に開かれた経済政策の誤解について3ラウンドの会話を完了した。
中立的なコントロールと比較すると,LSMが応答者の党に偏ったという短いメッセージは説得力を28%減らした。
トランスクリプト分析は、警告が相互作用を変えることを示している。
これらの知見は、会話型AIの説得的影響は、パルチザン的アライメントの知覚によって制約され、政治的に矛盾していることを示唆している。
関連論文リスト
- Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - The Levers of Political Persuasion with Conversational AI [4.6244198651412045]
会話型AIがすぐに人間の信念に前例のない影響を及ぼす恐れがある。
我々は、現在および近未来的AIの説得力は、ポストトレーニングやプロンプトの方法に起因している可能性が高いことを示す。
論文 参考訳(メタデータ) (2025-07-18T13:50:09Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Large Language Models are often politically extreme, usually ideologically inconsistent, and persuasive even in informational contexts [1.9782163071901029]
大規模言語モデル(LLM)は、人々が情報を取得し、世界と対話する方法を根本的に変える、変革的な技術である。
LLMの全体的な党派的嗜好は、特定のトピックに対する極端な見解の相違による純結果であることを示す。
ランダム化実験では、LLMは情報検索の文脈においても、自らの好みを政治的説得力に広めることができることを示す。
論文 参考訳(メタデータ) (2025-05-07T06:53:59Z) - Tailored Truths: Optimizing LLM Persuasion with Personalization and Fabricated Statistics [0.0]
大規模言語モデル(LLM)はますます説得力を高めつつある。
LLMは、個人データを活用することで、人間との会話における議論をパーソナライズすることができる。
これは偽情報キャンペーンの規模と効果に深刻な影響を与える可能性がある。
論文 参考訳(メタデータ) (2025-01-28T20:06:09Z) - When Neutral Summaries are not that Neutral: Quantifying Political Neutrality in LLM-Generated News Summaries [0.0]
本研究では, LLMの政治的中立性を定量化するための新たな視点を示す。
我々は、中絶、銃規制/権利、医療、移民、LGBTQ+の権利という、現在のアメリカの政治における5つの迫る問題について検討する。
我々の研究は、いくつかのよく知られたLLMにおいて、民主的偏見に対する一貫した傾向を明らかにした。
論文 参考訳(メタデータ) (2024-10-13T19:44:39Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では,大言語モデル(LLM)におけるパルチザンバイアスが政治的意見や意思決定に与える影響について検討する。
その結果,党派偏見モデルに曝露した参加者は,LLMの偏見と一致した意見を取り入れ,決定を下す可能性が有意に高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。