論文の概要: Top-down Discourse Parsing via Sequence Labelling
- arxiv url: http://arxiv.org/abs/2102.02080v1
- Date: Wed, 3 Feb 2021 14:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 00:43:58.581586
- Title: Top-down Discourse Parsing via Sequence Labelling
- Title(参考訳): シーケンスラベリングによるトップダウン対話解析
- Authors: Fajri Koto and Jey Han Lau and Timothy Baldwin
- Abstract要約: 本稿では,前者よりも概念的にシンプルである談話解析へのトップダウンアプローチを提案する。
タスクをシーケンスラベリング問題としてフレーミングすることにより、デコーダを排除し、分割点の探索スペースを削減できる。
提案するLSTMモデルでは, フルメトリックに基づいて, RST解析のための新しい最先端モデルを構築した。
- 参考スコア(独自算出の注目度): 33.46519116869276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a top-down approach to discourse parsing that is conceptually
simpler than its predecessors (Kobayashi et al., 2020; Zhang et al., 2020). By
framing the task as a sequence labelling problem where the goal is to
iteratively segment a document into individual discourse units, we are able to
eliminate the decoder and reduce the search space for splitting points. We
explore both traditional recurrent models and modern pre-trained transformer
models for the task, and additionally introduce a novel dynamic oracle for
top-down parsing. Based on the Full metric, our proposed LSTM model sets a new
state-of-the-art for RST parsing.
- Abstract(参考訳): 本稿では,従来のものよりも概念的にシンプルである談話解析へのトップダウンアプローチ(小林ら,2020年,張ら,2020年)を紹介する。
文書を個別の談話単位に反復的に分割することを目的としたシーケンスラベリング問題としてタスクをフレーミングすることで,デコーダを取り除き,分割点の探索空間を削減できる。
従来のリカレントモデルと最新のトレーニング済みトランスモデルの両方を検討し、さらにトップダウン解析のための新しい動的オーラクルを導入します。
提案するLSTMモデルでは, フルメトリックに基づいて, RST解析のための新しい最先端モデルを構築した。
関連論文リスト
- Pushdown Layers: Encoding Recursive Structure in Transformer Language
Models [86.75729087623259]
再帰は人間の言語の特徴であり、本質的には自己注意に挑戦する。
この作業では、新しいセルフアテンション層であるPushdown Layersを導入している。
プッシュダウン層を備えたトランスフォーマーは、劇的に改善され、3.5倍の高効率な構文一般化を実現した。
論文 参考訳(メタデータ) (2023-10-29T17:27:18Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z) - Efficient Long Sequence Encoding via Synchronization [29.075962393432857]
階層符号化のための同期機構を提案する。
我々のアプローチはまずセグメント間でアンカートークンを識別し、元の入力シーケンスでの役割によってグループ化する。
我々のアプローチは、効率を保ちながらセグメント間のグローバル情報交換を改善することができる。
論文 参考訳(メタデータ) (2022-03-15T04:37:02Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - Structure-aware Fine-tuning of Sequence-to-sequence Transformers for
Transition-based AMR Parsing [20.67024416678313]
我々は、一般的な事前訓練されたシーケンス・ツー・シーケンス言語モデルと構造対応のトランジション・ベース・アプローチの統合について検討する。
構造化された微調整のための事前学習言語モデルをよりよく活用するために,単純化されたトランジションセットを提案する。
提案した解析アーキテクチャは,従来の遷移に基づくアプローチの望ましい特性を維持しつつ,グラフの再分類を必要とせず,AMR 2.0の最先端技術に到達していることを示す。
論文 参考訳(メタデータ) (2021-10-29T04:36:31Z) - Semantic Parsing in Task-Oriented Dialog with Recursive Insertion-based
Encoder [6.507504084891086]
本稿では,タスク指向対話における意味解析のための再帰型Insertion-based entity recognition(RINE)手法を提案する。
RINEは,対話型セマンティック解析ベンチマークTOPの低リソース版と高リソース版において,最先端のマッチング精度を実現する。
提案手法は推論時のシーケンス・ツー・シーケンス・モデルよりも2-3.5倍高速である。
論文 参考訳(メタデータ) (2021-09-09T18:23:45Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。