論文の概要: On Theoretically-Driven LLM Agents for Multi-Dimensional Discourse Analysis
- arxiv url: http://arxiv.org/abs/2602.13713v1
- Date: Sat, 14 Feb 2026 10:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.357303
- Title: On Theoretically-Driven LLM Agents for Multi-Dimensional Discourse Analysis
- Title(参考訳): 多次元談話解析のための理論駆動型LLMエージェントについて
- Authors: Maciej Uberna, Michał Wawer, Jarosław A. Chudziak, Marcin Koszowy,
- Abstract要約: 本稿では,この課題に明示的な理論的知識を取り入れることのメリットを定量化するために,比較マルチエージェントフレームワークを提案する。
我々は、注釈付き政治討論のデータセットを利用して、4つの異なる言い換え機能を含む新しい標準を確立する。
我々は,2つの並列LLMエージェントシステムの評価を行った。1つはRetrieval-Augmented Generation (RAG)による議論理論により強化され,もう1つはゼロショットベースラインである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Identifying the strategic uses of reformulation in discourse remains a key challenge for computational argumentation. While LLMs can detect surface-level similarity, they often fail to capture the pragmatic functions of rephrasing, such as its role within rhetorical discourse. This paper presents a comparative multi-agent framework designed to quantify the benefits of incorporating explicit theoretical knowledge for this task. We utilise an dataset of annotated political debates to establish a new standard encompassing four distinct rephrase functions: Deintensification, Intensification, Specification, Generalisation, and Other, which covers all remaining types (D-I-S-G-O). We then evaluate two parallel LLM-based agent systems: one enhanced by argumentation theory via Retrieval-Augmented Generation (RAG), and an identical zero-shot baseline. The results reveal a clear performance gap: the RAG-enhanced agents substantially outperform the baseline across the board, with particularly strong advantages in detecting Intensification and Generalisation context, yielding an overall Macro F1-score improvement of nearly 30\%. Our findings provide evidence that theoretical grounding is not only beneficial but essential for advancing beyond mere paraphrase detection towards function-aware analysis of argumentative discourse. This comparative multi-agent architecture represents a step towards scalable, theoretically informed computational tools capable of identifying rhetorical strategies in contemporary discourse.
- Abstract(参考訳): 談話における改革の戦略的利用の特定は、計算的議論の鍵となる課題である。
LLMは表面レベルの類似性を検出することができるが、リフレージングの実用的機能、例えば修辞論における役割を捉えることができないことが多い。
本稿では,この課題に明示的な理論的知識を取り入れることのメリットを定量化するために,比較マルチエージェントフレームワークを提案する。
我々は、注釈付き政治討論のデータセットを利用して、4つの異なる言い換え関数を含む新しい標準を確立する: 拡張、拡張、仕様、一般化、その他の、残りのすべての型(D-I-S-G-O)をカバーする。
次に,2つの並列LLMエージェントシステムの評価を行った。1つはRetrieval-Augmented Generation (RAG)による議論理論により強化され,もう1つはゼロショットベースラインである。
RAGにより強化されたエージェントは、ボード全体のベースラインを著しく上回り、特にインテンシフィケーションと一般化のコンテキストを検知する利点が強く、マクロF1スコア全体の30倍近く改善した。
本研究は, 理論的根拠が単なるパラフレーズ検出を超えて, 議論的言説の関数認識分析へ進む上で必須であることを示すものである。
この比較マルチエージェントアーキテクチャは、現代談話における修辞的戦略を識別できるスケーラブルで理論的な計算ツールへの一歩である。
関連論文リスト
- Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Towards Agentic RAG with Deep Reasoning: A Survey of RAG-Reasoning Systems in LLMs [69.10441885629787]
Retrieval-Augmented Generation (RAG) は、外部知識を注入することによって、Large Language Models (LLM) の事実性を高める。
逆に、純粋に推論指向のアプローチは、しばしば幻覚的あるいは誤った事実を必要とする。
この調査は両鎖を統一的推論-検索の観点から合成する。
論文 参考訳(メタデータ) (2025-07-13T03:29:41Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Argumentation Computation with Large Language Models : A Benchmark Study [6.0682923348298194]
大規模言語モデル(LLM)は、ニューロシンボリックコンピューティングにおいて大きな進歩を遂げた。
我々は,様々な抽象的論証セマンティクスの拡張を決定する上でのLLMの能力を検討することを目的とする。
論文 参考訳(メタデータ) (2024-12-21T18:23:06Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。