論文の概要: Emotionally Charged, Logically Blurred: AI-driven Emotional Framing Impairs Human Fallacy Detection
- arxiv url: http://arxiv.org/abs/2510.09695v1
- Date: Thu, 09 Oct 2025 14:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.566094
- Title: Emotionally Charged, Logically Blurred: AI-driven Emotional Framing Impairs Human Fallacy Detection
- Title(参考訳): 感情的に充電されたり、論理的に壊れたり:AI駆動の感情的ひび割れは人間の誤検知を損なう
- Authors: Yanran Chen, Lynn Greschner, Roman Klinger, Michael Klenk, Steffen Eger,
- Abstract要約: 本稿では、感情的なフレーミングが誤認識や説得力とどのように相互作用するかについて、最初の計算的研究を行う。
我々は、大言語モデル(LLM)を用いて、誤った議論において、感情的な魅力を体系的に変化させる。
我々の研究は、誤った議論の文脈におけるAIによる感情的な操作に影響を及ぼす。
- 参考スコア(独自算出の注目度): 25.196971926947906
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Logical fallacies are common in public communication and can mislead audiences; fallacious arguments may still appear convincing despite lacking soundness, because convincingness is inherently subjective. We present the first computational study of how emotional framing interacts with fallacies and convincingness, using large language models (LLMs) to systematically change emotional appeals in fallacious arguments. We benchmark eight LLMs on injecting emotional appeal into fallacious arguments while preserving their logical structures, then use the best models to generate stimuli for a human study. Our results show that LLM-driven emotional framing reduces human fallacy detection in F1 by 14.5% on average. Humans perform better in fallacy detection when perceiving enjoyment than fear or sadness, and these three emotions also correlate with significantly higher convincingness compared to neutral or other emotion states. Our work has implications for AI-driven emotional manipulation in the context of fallacious argumentation.
- Abstract(参考訳): 論理的誤信は公共のコミュニケーションで一般的であり、聴衆を誤解させる可能性がある。
本稿では,大規模言語モデル (LLM) を用いて, 感情的フレーミングが誤認識や説得力とどのように相互作用するかを計算し, 誤った議論における感情的魅力を体系的に変化させる。
論理構造を保ちながら、感情的魅力を誤った議論に注入する8つのLSMをベンチマークし、最適なモデルを用いて人間の研究に刺激を与えます。
以上の結果から,LLMによる感情的フレーミングはF1における人間の誤検出を平均14.5%減少させることが示された。
人間は恐怖や悲しみよりも楽しさを感じたときの誤認の検出に優れており、これらの3つの感情は中性や他の感情状態と比較して非常に高い説得力と相関している。
我々の研究は、誤った議論の文脈におけるAIによる感情的な操作に影響を及ぼす。
関連論文リスト
- Do Emotions Really Affect Argument Convincingness? A Dynamic Approach with LLM-based Manipulation Checks [22.464222858889084]
心理学や社会科学でよく用いられる操作チェックに着想を得た動的枠組みを導入する。
この枠組みは、感情の強さが知覚の説得力にどのような影響を及ぼすかを調べる。
半数以上の症例では、感情の強さの変化にもかかわらず、人間による説得力の判断は変わらないことが判明した。
論文 参考訳(メタデータ) (2025-02-24T10:04:44Z) - Fearful Falcons and Angry Llamas: Emotion Category Annotations of Arguments by Humans and LLMs [9.088303226909277]
我々は,ドイツの議論コーパスにおける感情カテゴリーの主観的アノテーションをクラウドソースし,自動ラベリング手法を評価する。
感情カテゴリーは議論における感情の予測を促進する。
すべてのプロンプト設定とモデルにおいて、自動予測は、怒りと恐怖を予測するための高いリコールだが低い精度を示す。
論文 参考訳(メタデータ) (2024-12-20T15:41:47Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Empathetic Response Generation through Graph-based Multi-hop Reasoning
on Emotional Causality [13.619616838801006]
共感応答生成は、ユーザの感情を理解し、それを適切に応答することを目的としている。
既存の作業の多くは、単に感情が何であるかに焦点を合わせ、どのように感情が誘発されるかを無視します。
我々は、感情的因果関係、すなわち、ユーザーがどのような感情を表現しているか、なぜユーザーがそのような感情を持っているのかを考える。
論文 参考訳(メタデータ) (2021-10-09T17:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。