論文の概要: Emotionally Charged, Logically Blurred: AI-driven Emotional Framing Impairs Human Fallacy Detection
- arxiv url: http://arxiv.org/abs/2510.09695v1
- Date: Thu, 09 Oct 2025 14:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.566094
- Title: Emotionally Charged, Logically Blurred: AI-driven Emotional Framing Impairs Human Fallacy Detection
- Title(参考訳): 感情的に充電されたり、論理的に壊れたり:AI駆動の感情的ひび割れは人間の誤検知を損なう
- Authors: Yanran Chen, Lynn Greschner, Roman Klinger, Michael Klenk, Steffen Eger,
- Abstract要約: 本稿では、感情的なフレーミングが誤認識や説得力とどのように相互作用するかについて、最初の計算的研究を行う。
我々は、大言語モデル(LLM)を用いて、誤った議論において、感情的な魅力を体系的に変化させる。
我々の研究は、誤った議論の文脈におけるAIによる感情的な操作に影響を及ぼす。
- 参考スコア(独自算出の注目度): 25.196971926947906
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Logical fallacies are common in public communication and can mislead audiences; fallacious arguments may still appear convincing despite lacking soundness, because convincingness is inherently subjective. We present the first computational study of how emotional framing interacts with fallacies and convincingness, using large language models (LLMs) to systematically change emotional appeals in fallacious arguments. We benchmark eight LLMs on injecting emotional appeal into fallacious arguments while preserving their logical structures, then use the best models to generate stimuli for a human study. Our results show that LLM-driven emotional framing reduces human fallacy detection in F1 by 14.5% on average. Humans perform better in fallacy detection when perceiving enjoyment than fear or sadness, and these three emotions also correlate with significantly higher convincingness compared to neutral or other emotion states. Our work has implications for AI-driven emotional manipulation in the context of fallacious argumentation.
- Abstract(参考訳): 論理的誤信は公共のコミュニケーションで一般的であり、聴衆を誤解させる可能性がある。
本稿では,大規模言語モデル (LLM) を用いて, 感情的フレーミングが誤認識や説得力とどのように相互作用するかを計算し, 誤った議論における感情的魅力を体系的に変化させる。
論理構造を保ちながら、感情的魅力を誤った議論に注入する8つのLSMをベンチマークし、最適なモデルを用いて人間の研究に刺激を与えます。
以上の結果から,LLMによる感情的フレーミングはF1における人間の誤検出を平均14.5%減少させることが示された。
人間は恐怖や悲しみよりも楽しさを感じたときの誤認の検出に優れており、これらの3つの感情は中性や他の感情状態と比較して非常に高い説得力と相関している。
我々の研究は、誤った議論の文脈におけるAIによる感情的な操作に影響を及ぼす。
関連論文リスト
- Reflecting Twice before Speaking with Empathy: Self-Reflective Alternating Inference for Empathy-Aware End-to-End Spoken Dialogue [53.95386201009769]
音声対話における共感的品質を評価するための記述型自然言語ベース評価モデルであるEmpathyEvalを紹介する。
本稿では,共感的自己反射的交替推論機構を通じて共感的対話を強化する,エンドツーエンドの音声言語モデルであるReEmpathyを提案する。
論文 参考訳(メタデータ) (2026-01-26T09:04:50Z) - Categorical Emotions or Appraisals - Which Emotion Model Explains Argument Convincingness Better? [7.221399245137941]
我々は、受取人の議論が引き起こす感情は主観的であると論じる。
それは受取人の目標、基準、事前の知識、スタンスに依存します。
本研究は、説得力予測のための感情モデル間の最初の体系的比較を示す。
論文 参考訳(メタデータ) (2025-11-10T14:53:04Z) - Outraged AI: Large language models prioritise emotion over cost in fairness enforcement [13.51400164704227]
我々は,大言語モデル (LLM) が感情を用いて罰を導いていることを示す。
不公平はより強い否定的な感情をもたらし、より多くの罰を導いた。
将来のモデルでは、人間のような感情的知性を達成するために、感情を文脈に敏感な推論と統合すべきである。
論文 参考訳(メタデータ) (2025-10-17T08:41:36Z) - Do Emotions Really Affect Argument Convincingness? A Dynamic Approach with LLM-based Manipulation Checks [22.464222858889084]
心理学や社会科学でよく用いられる操作チェックに着想を得た動的枠組みを導入する。
この枠組みは、感情の強さが知覚の説得力にどのような影響を及ぼすかを調べる。
半数以上の症例では、感情の強さの変化にもかかわらず、人間による説得力の判断は変わらないことが判明した。
論文 参考訳(メタデータ) (2025-02-24T10:04:44Z) - Fearful Falcons and Angry Llamas: Emotion Category Annotations of Arguments by Humans and LLMs [9.088303226909277]
我々は,ドイツの議論コーパスにおける感情カテゴリーの主観的アノテーションをクラウドソースし,自動ラベリング手法を評価する。
感情カテゴリーは議論における感情の予測を促進する。
すべてのプロンプト設定とモデルにおいて、自動予測は、怒りと恐怖を予測するための高いリコールだが低い精度を示す。
論文 参考訳(メタデータ) (2024-12-20T15:41:47Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Large Language Models Understand and Can be Enhanced by Emotional
Stimuli [53.53886609012119]
我々は、感情的な刺激を理解するために、大規模言語モデルの能力を探究する第一歩を踏み出す。
実験の結果,LLMは感情的知能を把握でき,その性能は感情的刺激によって改善できることがわかった。
EmotionPromptが生成タスクの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-07-14T00:57:12Z) - Empathetic Response Generation through Graph-based Multi-hop Reasoning
on Emotional Causality [13.619616838801006]
共感応答生成は、ユーザの感情を理解し、それを適切に応答することを目的としている。
既存の作業の多くは、単に感情が何であるかに焦点を合わせ、どのように感情が誘発されるかを無視します。
我々は、感情的因果関係、すなわち、ユーザーがどのような感情を表現しているか、なぜユーザーがそのような感情を持っているのかを考える。
論文 参考訳(メタデータ) (2021-10-09T17:12:41Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。