論文の概要: DeepA2: A Modular Framework for Deep Argument Analysis with Pretrained
Neural Text2Text Language Models
- arxiv url: http://arxiv.org/abs/2110.01509v1
- Date: Mon, 4 Oct 2021 15:24:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:55:12.695173
- Title: DeepA2: A Modular Framework for Deep Argument Analysis with Pretrained
Neural Text2Text Language Models
- Title(参考訳): deepa2:ニューラルネットワークtext2text言語モデルによる深層引数解析のためのモジュラーフレームワーク
- Authors: Gregor Betz and Kyle Richardson
- Abstract要約: 本稿では,既存の事前学習言語モデル (PTLM) を用いたディープ引数解析 (DeepA2) を実現するための多次元モジュラーフレームワークを提案し,実装する。
我々は、ディープ引数分析のための合成コーパスを作成し、この新しいデータセットと既存のデータ、特にEntailmentBankに基づいてArgumentAnalystを評価します。
私たちの経験的発見は、全体的なフレームワークを象徴し、モジュール化された設計の利点を強調します。
- 参考スコア(独自算出の注目度): 7.132217701156598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present and implement a multi-dimensional, modular
framework for performing deep argument analysis (DeepA2) using current
pre-trained language models (PTLMs). ArgumentAnalyst -- a T5 model (Raffel et
al. 2020) set up and trained within DeepA2 -- reconstructs argumentative texts,
which advance an informal argumentation, as valid arguments: It inserts, e.g.,
missing premises and conclusions, formalizes inferences, and coherently links
the logical reconstruction to the source text. We create a synthetic corpus for
deep argument analysis, and evaluate ArgumentAnalyst on this new dataset as
well as on existing data, specifically EntailmentBank (Dalvi et al. 2021). Our
empirical findings vindicate the overall framework and highlight the advantages
of a modular design, in particular its ability to emulate established
heuristics (such as hermeneutic cycles), to explore the model's uncertainty, to
cope with the plurality of correct solutions (underdetermination), and to
exploit higher-order evidence.
- Abstract(参考訳): 本稿では,現在の事前学習言語モデル(ptlms)を用いた深層引数解析(deepa2)を行うための多次元モジュール型フレームワークを提案する。
argumentanalyst - deepa2内で設定およびトレーニングされたt5モデル (raffel et al. 2020) -- は、非公式な議論を進める議論テキストを正当な引数として再構築する。
我々は、深層引数解析のための合成コーパスを作成し、この新しいデータセットと既存のデータ、特にentailmentbank(dalvi et al. 2021)に関する議論分析を行う。
我々の経験的発見は、全体の枠組みを肯定し、モジュラーデザインの利点、特に確立されたヒューリスティックス(hermeneutic cyclesなど)をエミュレートし、モデルの不確かさを探求し、複数の正しい解に対処し(不確定)、高次証拠を活用できる能力を強調している。
関連論文リスト
- A Methodology for Gradual Semantics for Structured Argumentation under Incomplete Information [15.717458041314194]
構造化議論フレームワークの段階的意味論を得るための新しい手法を提案する。
我々の方法論は議論の前提に関する不完全な情報に対応している。
方法論の2つの異なるインスタンス化を導入することで、このアプローチの可能性を実証する。
論文 参考訳(メタデータ) (2024-10-29T16:38:35Z) - Michelangelo: Long Context Evaluations Beyond Haystacks via Latent Structure Queries [54.325172923155414]
ミケランジェロ(Michelangelo)は、大規模言語モデルに対する最小限の、合成的で、未学習の長文推論評価である。
この評価は、任意に長いコンテキストに対する評価のための、新しく統一された枠組みによって導出される。
論文 参考訳(メタデータ) (2024-09-19T10:38:01Z) - Linguistic Structure Induction from Language Models [1.8130068086063336]
この論文は、教師なし環境で言語モデル(LM)から選挙区構造と依存関係構造を生成することに焦点を当てている。
本稿では,エンコーダネットワークにトランスフォーマーアーキテクチャを組み込んだStructFormer(SF)について詳細に検討し,その構成と依存性について述べる。
この分野の課題を分析し、対処するための6つの実験を提示します。
論文 参考訳(メタデータ) (2024-03-11T16:54:49Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - "You Are An Expert Linguistic Annotator": Limits of LLMs as Analyzers of
Abstract Meaning Representation [60.863629647985526]
文意味構造の解析において, GPT-3, ChatGPT, および GPT-4 モデルの成功と限界について検討した。
モデルはAMRの基本形式を確実に再現でき、しばしばコアイベント、引数、修飾子構造をキャプチャできる。
全体としては,これらのモデルではセマンティック構造の側面を捉えることができるが,完全に正確なセマンティック解析や解析をサポートする能力には重要な制限が残されている。
論文 参考訳(メタデータ) (2023-10-26T21:47:59Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Unifying Structure Reasoning and Language Model Pre-training for Complex
Reasoning [26.811507121199323]
本稿では,明示的な構造推論と言語事前学習を組み合わせ,PLMと構造推論のスキルを融合した統合学習フレームワークを提案する。
まず、コンテクスト内のいくつかの基本構造を識別し、構造化されたクエリを構築し、クエリに沿ってステップバイステップの推論を行い、回答エンティティを識別する。
4つのデータセットに対する実験結果から,提案モデルが多様構造を含む複雑な推論タスクにおいて,大幅な改善を達成できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T08:18:11Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Learning Topic Models: Identifiability and Finite-Sample Analysis [6.181048261489101]
本稿では,特定の統合可能性に基づく潜在トピックの最大確率推定器(MLE)を提案する。
シミュレーションと実データの両方について実証的研究を行った。
論文 参考訳(メタデータ) (2021-10-08T16:35:42Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。