論文の概要: LLM-based Argument Mining meets Argumentation and Description Logics: a Unified Framework for Reasoning about Debates
- arxiv url: http://arxiv.org/abs/2603.02858v1
- Date: Tue, 03 Mar 2026 11:06:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.758434
- Title: LLM-based Argument Mining meets Argumentation and Description Logics: a Unified Framework for Reasoning about Debates
- Title(参考訳): LLMベースのArgument Miningは論証と記述論理に合致する:議論に関する推論のための統一フレームワーク
- Authors: Gianvincenzo Alfano, Sergio Greco, Lucio La Cava, Stefano Francesco Monea, Irina Trubitsyna,
- Abstract要約: 大規模言語モデル(LLM)は、テキストの分析と生成において高いパフォーマンスを達成する。
彼らは、議論を含むような複雑なテキストに対する明確で透明で検証可能な推論に苦慮している。
本稿では,学習に基づく議論マイニングと定量的推論を組み合わせたフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.314315278861073
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) achieve strong performance in analyzing and generating text, yet they struggle with explicit, transparent, and verifiable reasoning over complex texts such as those containing debates. In particular, they lack structured representations that capture how arguments support or attack each other and how their relative strengths determine overall acceptability. We encompass these limitations by proposing a framework that integrates learning-based argument mining with quantitative reasoning and ontology-based querying. Starting from a raw debate text, the framework extracts a fuzzy argumentative knowledge base, where arguments are explicitly represented as entities, linked by attack and support relations, and annotated with initial fuzzy strengths reflecting plausibility w.r.t. the debate's context. Quantitative argumentation semantics are then applied to compute final argument strengths by propagating the effects of supports and attacks. These results are then embedded into a fuzzy description logic setting, enabling expressive query answering through efficient rewriting techniques. The proposed approach provides a transparent, explainable, and formally grounded method for analyzing debates, overcoming purely statistical LLM-based analyses.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキストの分析と生成において強力なパフォーマンスを達成するが、議論を含むような複雑なテキストに対する明示的で透明で検証可能な推論に苦慮する。
特に、引数が相互をサポートするか、攻撃するか、相対的な強みが全体的な受け入れ可能性を決定するかをキャプチャする構造化された表現が欠けている。
我々は、学習に基づく議論マイニングと定量的推論とオントロジーに基づくクエリを統合するフレームワークを提案することによって、これらの制限を包含する。
生の議論テキストから、このフレームワークはファジィな議論的知識ベースを抽出し、議論は明確にエンティティとして表現され、攻撃とサポートの関係によってリンクされ、議論の文脈の妥当性を反映した最初のファジィな強度で注釈付けされる。
定量的な議論セマンティクスは、サポートとアタックの効果を伝播することにより、最終的な議論強度を計算するために適用される。
これらの結果はファジィ記述ロジック設定に埋め込まれ、効率的な書き換え技術によって表現力のあるクエリ応答を可能にする。
提案手法は、純粋に統計的LLMに基づく分析を克服し、透明で説明可能な、公式な根拠付き手法を提供する。
関連論文リスト
- Abstract Argumentation with Subargument Relations [0.8460698440162889]
Dungの抽象的な議論フレームワークは、アタック関係を通じてのみ、引数の許容性を特徴付ける。
このフレームワークは、多くの構造化議論形式の中心となる構造的依存関係を表現する能力を制限する。
本稿では,アタックを基本的関係として扱う明示的部分論関係に富んだ抽象的論証フレームワークについて検討する。
このフレームワークは、構造情報の原則的な抽象化を提供し、抽象的受容可能性推論における部分論の役割を明確にする。
論文 参考訳(メタデータ) (2026-01-17T12:54:10Z) - Understanding Textual Capability Degradation in Speech LLMs via Parameter Importance Analysis [54.53152524778821]
言語モデル(LLM)への音声の統合は、その能力を大幅に拡張したが、多くの場合、中核となるテキスト能力の弱さを犠牲にしている。
本稿では,パラメータ重要度推定に基づく分析フレームワークを提案する。
レイヤワイズ学習率スケジューリングとローランド適応(LoRA)の2つの緩和戦略について検討する。
実験結果から,両手法は完全な微調整よりもテキスト能力の維持が良好であるとともに,下流の質問応答性能も向上していることがわかった。
論文 参考訳(メタデータ) (2025-09-28T09:04:40Z) - Can LLMs Judge Debates? Evaluating Non-Linear Reasoning via Argumentation Theory Semantics [24.173784986846687]
我々はCAT(Computational Argumentation Theory)からLarge Language Models (LLMs) を推定できるかどうかを評価する。
我々はQuADセマンティクスを用いて、攻撃とサポートの関係に基づいて、アクセプティビリティスコアを引数に割り当てる。
論文 参考訳(メタデータ) (2025-09-19T08:10:32Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - The Curse of CoT: On the Limitations of Chain-of-Thought in In-Context Learning [56.574829311863446]
CoT(Chain-of-Thought)プロンプトは,大規模言語モデル(LLM)における推論能力の向上によって広く認識されている。
我々は、CoTとその推論変異が、様々なモデルスケールやベンチマークの複雑さに対して、直接応答を一貫して過小評価していることを実証する。
パターンベースICLにおけるCoTの性能を駆動する明示的単純推論の基本的なハイブリッド機構を明らかにする。
論文 参考訳(メタデータ) (2025-04-07T13:51:06Z) - Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - Argumentative Large Language Models for Explainable and Contestable Claim Verification [13.045050015831903]
本稿では,議論的推論を用いた大規模言語モデルの拡張手法であるArgLLMsを紹介する。
ArgLLMsは議論フレームワークを構築し、意思決定を支援するための公式な推論の基礎となる。
我々はArgLLMsの性能を最先端技術と比較して実験的に評価した。
論文 参考訳(メタデータ) (2024-05-03T13:12:28Z) - A Unifying Framework for Learning Argumentation Semantics [47.84663434179473]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - A Formalisation of Abstract Argumentation in Higher-Order Logic [77.34726150561087]
本稿では,古典的高階論理へのエンコーディングに基づく抽象的議論フレームワークの表現手法を提案する。
対話型および自動推論ツールを用いた抽象的議論フレームワークのコンピュータ支援評価のための一様フレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-18T10:45:59Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。