論文の概要: Joint Effects of Argumentation Theory, Audio Modality and Data Enrichment on LLM-Based Fallacy Classification
- arxiv url: http://arxiv.org/abs/2509.11127v1
- Date: Sun, 14 Sep 2025 06:35:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.933723
- Title: Joint Effects of Argumentation Theory, Audio Modality and Data Enrichment on LLM-Based Fallacy Classification
- Title(参考訳): LLMに基づく誤り分類における調音理論, 音質, およびデータ強化の併用効果
- Authors: Hongxu Zhou, Hylke Westerdijk, Khondoker Ittehadul Islam,
- Abstract要約: 本研究では、文脈と感情のトーンメタデータが、誤分類タスクにおける大規模言語モデル(LLM)の推論と性能に与える影響について検討する。
アメリカ合衆国大統領討論会のデータを用いて、Qwen-3 (8B) モデルに適用される様々なプロンプト戦略を通じて、6つの誤りタイプを分類する。
- 参考スコア(独自算出の注目度): 0.038233569758620044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study investigates how context and emotional tone metadata influence large language model (LLM) reasoning and performance in fallacy classification tasks, particularly within political debate settings. Using data from U.S. presidential debates, we classify six fallacy types through various prompting strategies applied to the Qwen-3 (8B) model. We introduce two theoretically grounded Chain-of-Thought frameworks: Pragma-Dialectics and the Periodic Table of Arguments, and evaluate their effectiveness against a baseline prompt under three input settings: text-only, text with context, and text with both context and audio-based emotional tone metadata. Results suggest that while theoretical prompting can improve interpretability and, in some cases, accuracy, the addition of context and especially emotional tone metadata often leads to lowered performance. Emotional tone metadata biases the model toward labeling statements as \textit{Appeal to Emotion}, worsening logical reasoning. Overall, basic prompts often outperformed enhanced ones, suggesting that attention dilution from added inputs may worsen rather than improve fallacy classification in LLMs.
- Abstract(参考訳): 本研究では,文脈と感情のトーンメタデータが大規模言語モデル(LLM)の推論・性能に与える影響について検討した。
アメリカ合衆国大統領討論会のデータを用いて、Qwen-3 (8B) モデルに適用される様々なプロンプト戦略を通じて、6つの誤りタイプを分類する。
Pragma-Dialectics と Periodic Table of Arguments の2つの理論的基盤を持つChain-of-Thought フレームワークを導入し,テキストオンリー,コンテキスト付きテキスト,文脈ベースの感情的トーンメタデータと音声ベースの感情的トーンメタデータの3つの入力条件下で,ベースラインプロンプトに対する有効性を評価する。
その結果、理論的なプロンプトは解釈可能性を改善することができるが、場合によっては、文脈の追加、特に感情的なトーンメタデータにより、性能が低下することが多いことが示唆された。
感情的なトーンメタデータは、ステートメントを‘textit{Appeal to Emotion}’としてラベル付けするモデルに偏りがあり、論理的推論が悪化する。
全体として、基本的なプロンプトは強化されたプロンプトよりも優れており、LLMの誤分類を改善するよりも、追加入力からの注意の希釈が悪化する可能性があることを示唆している。
関連論文リスト
- SpeechR: A Benchmark for Speech Reasoning in Large Audio-Language Models [60.72029578488467]
SpeechRは、大規模な音声言語モデルにおける音声に対する推論を評価するための統一的なベンチマークである。
事実検索、手続き推論、規範的判断の3つの重要な側面に沿ったモデルを評価する。
11個の最先端のLALMの評価は、高い転写精度が強い推論能力に変換されないことを示している。
論文 参考訳(メタデータ) (2025-08-04T03:28:04Z) - More or Less Wrong: A Benchmark for Directional Bias in LLM Comparative Reasoning [10.301985230669684]
本研究では,大規模言語モデルにおける意味的キュー形状推論のメカニズムについて検討する。
我々は300の比較シナリオのベンチマークであるMathCompを紹介する。
モデル誤差は、しばしば言語的ステアリングを反映し、プロンプトに存在する比較項への体系的なシフトを反映している。
論文 参考訳(メタデータ) (2025-06-04T13:15:01Z) - Uncovering Autoregressive LLM Knowledge of Thematic Fit in Event Representation [0.09558392439655014]
我々は,事前学習した自己回帰型LLMが,テーマ適合性に関する一貫した表現可能な知識を持っているかどうかを評価する。
いくつかの心理言語学的データセットを用いて, 閉じた状態とオープンな状態のLLMを評価した。
本結果は,自己説明型セマンティックロールラベルを持つデータセットに対して,連鎖推論がより効果的であることを示す。
論文 参考訳(メタデータ) (2024-10-19T18:25:30Z) - Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - LLMs and Finetuning: Benchmarking cross-domain performance for hate speech detection [9.166963162285064]
本研究では,ヘイトスピーチの同定における事前学習および微調整型大言語モデル(LLM)の有効性と適応性について検討した。
LLMは、事前トレーニングなしでも最先端技術に対して大きな優位性を提供します。
論文 参考訳(メタデータ) (2023-10-29T10:07:32Z) - How to Handle Different Types of Out-of-Distribution Scenarios in Computational Argumentation? A Comprehensive and Fine-Grained Field Study [59.13867562744973]
この研究は、オフ・オブ・ディストリビューション(OOD)シナリオにおけるLMの能力を体系的に評価する。
このような学習パラダイムの有効性は,OODの種類によって異なることがわかった。
具体的には、ICLはドメインシフトに優れているが、プロンプトベースの微調整はトピックシフトに勝っている。
論文 参考訳(メタデータ) (2023-09-15T11:15:47Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。