論文の概要: End-to-End Argument Mining through Autoregressive Argumentative Structure Prediction
- arxiv url: http://arxiv.org/abs/2510.16363v1
- Date: Sat, 18 Oct 2025 06:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.96333
- Title: End-to-End Argument Mining through Autoregressive Argumentative Structure Prediction
- Title(参考訳): 自己回帰的Argumentative Structure予測によるエンドツーエンドのArgument Mining
- Authors: Nilmadhab Das, Vishal Vaibhav, Yash Sunil Choudhary, V. Vijaya Saradhi, Ashish Anand,
- Abstract要約: 本研究では,自動回帰Argumentative Structure Prediction (AASP) フレームワークを用いて,Argument Mining (AM) の重要なタスクをエンドツーエンドに定式化する。
AASPフレームワークは、条件付き事前訓練された言語モデルの助けを借りて、引数構造を制約された事前定義されたアクションのセットとしてモデル化する。
3つの標準AMベンチマークで実施された実験は、AASPが2つのベンチマークですべてのAMタスクにまたがって最先端(SoTA)の結果を達成し、1つのベンチマークで強力な結果をもたらすことを示した。
- 参考スコア(独自算出の注目度): 2.0421986354783432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Argument Mining (AM) helps in automating the extraction of complex argumentative structures such as Argument Components (ACs) like Premise, Claim etc. and Argumentative Relations (ARs) like Support, Attack etc. in an argumentative text. Due to the inherent complexity of reasoning involved with this task, modelling dependencies between ACs and ARs is challenging. Most of the recent approaches formulate this task through a generative paradigm by flattening the argumentative structures. In contrast to that, this study jointly formulates the key tasks of AM in an end-to-end fashion using Autoregressive Argumentative Structure Prediction (AASP) framework. The proposed AASP framework is based on the autoregressive structure prediction framework that has given good performance for several NLP tasks. AASP framework models the argumentative structures as constrained pre-defined sets of actions with the help of a conditional pre-trained language model. These actions build the argumentative structures step-by-step in an autoregressive manner to capture the flow of argumentative reasoning in an efficient way. Extensive experiments conducted on three standard AM benchmarks demonstrate that AASP achieves state-of-theart (SoTA) results across all AM tasks in two benchmarks and delivers strong results in one benchmark.
- Abstract(参考訳): Argument Mining (AM) は、Premise, ClaimなどのArgument Components (AC) やSupport, AttackなどのArgumentative Relations (AR) などの複雑な議論的構造の自動抽出を支援する。
このタスクに関わる推論の複雑さのため、ACとAR間の依存関係をモデル化することは難しい。
最近のアプローチのほとんどは、議論的構造をフラット化することによって、生成パラダイムを通じてこのタスクを定式化する。
これとは対照的に,本稿では,自動回帰Argumentative Structure Prediction(AASP)フレームワークを用いて,AMの重要なタスクをエンドツーエンドで共同で定式化する。
提案されているAASPフレームワークは、いくつかのNLPタスクに優れたパフォーマンスを与えた自動回帰構造予測フレームワークに基づいている。
AASPフレームワークは、条件付き事前訓練された言語モデルの助けを借りて、引数構造を制約された事前定義されたアクションのセットとしてモデル化する。
これらの作用は、議論的推論の流れを効率的に捉えるために、自己回帰的な方法で議論的構造を段階的に構築する。
3つの標準AMベンチマークで実施された大規模な実験は、AASPが2つのベンチマークですべてのAMタスクにまたがって最先端(SoTA)の結果を達成し、1つのベンチマークで強力な結果をもたらすことを示した。
関連論文リスト
- CoT Referring: Improving Referring Expression Tasks with Grounded Reasoning [67.18702329644526]
CoT Referringは、構造化されたチェーン・オブ・シークレット・トレーニングデータ構造を通じて、モデル推論をモダリティにわたって強化する。
トレーニングデータを再構築して、新たな出力フォームを実行し、既存のデータセットに新たなアノテーションを提供します。
また、検出とセグメント化機能を統合MLLMフレームワークに統合し、新しい適応重み付き損失で学習して性能を最適化する。
論文 参考訳(メタデータ) (2025-10-03T08:50:21Z) - Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - Efficient Inference for Large Reasoning Models: A Survey [74.17203483365171]
LRM(Large Reasoning Models)は、Large Language Models(LLM)の推論能力を大幅に向上させる。
しかし、それらの熟考的推論プロセスはトークンの使用、メモリ消費、推論時間に非効率をもたらす。
本調査では, LRMに特化して設計された効率的な推論手法を概説し, 推論品質を維持しつつトークンの非効率を緩和することに着目した。
論文 参考訳(メタデータ) (2025-03-29T13:27:46Z) - StructTest: Benchmarking LLMs' Reasoning through Compositional Structured Outputs [78.84060166851805]
StructTestは、大規模な言語モデル(LLM)を合成命令に従って構造化出力を生成する能力に基づいて評価する、新しいベンチマークである。
評価はルールベースの評価器を用いて決定的に行われ、新しいタスクやデータセットに容易に拡張できる。
StructTestは、Deepseek-V3/R1やGPT-4oといったトップパフォーマンスモデルでも、依然として難しいままです。
論文 参考訳(メタデータ) (2024-12-23T22:08:40Z) - Exploration of Marker-Based Approaches in Argument Mining through Augmented Natural Language [2.1639459844313564]
Argument Mining (AM)は、Argumentative Components (AC)とそれに対応するArgumentative Relations (AR)を識別・抽出する。
本稿では、生成パラダイムに基づくエンドツーエンドフレームワークargTANLを紹介する。
Augmented Natural Language (ANL) というラベル付きテキストに議論構造をフレーム化する。
論文 参考訳(メタデータ) (2024-06-12T19:22:29Z) - AMERICANO: Argument Generation with Discourse-driven Decomposition and Agent Interaction [25.38899822861742]
議論生成のためのエージェントインタラクションを備えた新しいフレームワークであるAmericanoを提案する。
提案手法は,進化過程を議論理論に基づく逐次的行動に分解する。
提案手法は,エンド・ツー・エンドとチェーン・オブ・ワンド・プロンプトの両手法より優れている。
論文 参考訳(メタデータ) (2023-10-31T10:47:33Z) - Unifying Structure Reasoning and Language Model Pre-training for Complex
Reasoning [26.811507121199323]
本稿では,明示的な構造推論と言語事前学習を組み合わせ,PLMと構造推論のスキルを融合した統合学習フレームワークを提案する。
まず、コンテクスト内のいくつかの基本構造を識別し、構造化されたクエリを構築し、クエリに沿ってステップバイステップの推論を行い、回答エンティティを識別する。
4つのデータセットに対する実験結果から,提案モデルが多様構造を含む複雑な推論タスクにおいて,大幅な改善を達成できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T08:18:11Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。