論文の概要: Randomized Deep Structured Prediction for Discourse-Level Processing
- arxiv url: http://arxiv.org/abs/2101.10435v1
- Date: Mon, 25 Jan 2021 21:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:23:38.176582
- Title: Randomized Deep Structured Prediction for Discourse-Level Processing
- Title(参考訳): 談話レベル処理のためのランダム化深部構造予測
- Authors: Manuel Widmoser, Maria Leonor Pacheco, Jean Honorio, Dan Goldwasser
- Abstract要約: 近年,表現型テキストエンコーダがNLPモデルの中心となっている。
複雑な議論構造を含むタスク群に対して,深層構造予測と表現型ニューラルネットワークエンコーダを効率的に活用できることを示す。
- 参考スコア(独自算出の注目度): 45.725437752821655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Expressive text encoders such as RNNs and Transformer Networks have been at
the center of NLP models in recent work. Most of the effort has focused on
sentence-level tasks, capturing the dependencies between words in a single
sentence, or pairs of sentences. However, certain tasks, such as argumentation
mining, require accounting for longer texts and complicated structural
dependencies between them. Deep structured prediction is a general framework to
combine the complementary strengths of expressive neural encoders and
structured inference for highly structured domains. Nevertheless, when the need
arises to go beyond sentences, most work relies on combining the output scores
of independently trained classifiers. One of the main reasons for this is that
constrained inference comes at a high computational cost. In this paper, we
explore the use of randomized inference to alleviate this concern and show that
we can efficiently leverage deep structured prediction and expressive neural
encoders for a set of tasks involving complicated argumentative structures.
- Abstract(参考訳): RNNやTransformer Networksのような表現力のあるテキストエンコーダは、近年NLPモデルの中心となっている。
作業の大部分は文レベルのタスクに重点を置いており、単一文中の単語間の依存関係、あるいは文のペアをキャプチャしている。
しかし、議論のマイニングのような特定のタスクは、長いテキストとそれら間の複雑な構造的依存関係の会計を必要とする。
深い構造化予測は、表現型ニューラルエンコーダの相補的な強度と高度に構造化されたドメインに対する構造的推論を組み合わせた一般的なフレームワークである。
それにもかかわらず、文を超える必要がある場合、ほとんどの作業は独立に訓練された分類器の出力スコアを組み合わせることに依存している。
この主な理由の1つは、制約付き推論が高い計算コストで来ることである。
本稿では,この懸念を緩和するためにランダム化推論を用いることを考察し,複雑な議論構造を含む一連のタスクに対して,深層構造予測と表現型ニューラルネットワークエンコーダを効率的に活用できることを示す。
関連論文リスト
- Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Promptly Predicting Structures: The Return of Inference [31.442123334313035]
ゼロショットと少数ショットの言語構造予測器を構築するためのフレームワークを提案する。
その結果, 整合性の維持は構造的に有効であるだけでなく, 性能も向上することがわかった。
論文 参考訳(メタデータ) (2024-01-12T20:08:39Z) - Unsupervised Chunking with Hierarchical RNN [62.15060807493364]
本稿では,非階層的手法で単語をグループ化する構文的タスクであるチャンキングに対する教師なしアプローチを紹介する。
本稿では,単語-チャンク・チャンク-文合成をモデル化した2層階層型階層型リカレントニューラルネットワーク(HRNN)を提案する。
CoNLL-2000データセットの実験では、既存の教師なし手法よりも顕著な改善が見られ、フレーズF1スコアが最大6ポイント向上した。
論文 参考訳(メタデータ) (2023-09-10T02:55:12Z) - Extracting Text Representations for Terms and Phrases in Technical
Domains [9.27244202193623]
そこで本研究では,大容量の事前学習組込み行列を再構築する目的で,小文字モデルを用いたテキスト符号化手法を提案する。
このアプローチでトレーニングされたモデルは、技術領域における文エンコーダの品質に適合するだけでなく、5倍小さく、最大10倍高速である。
論文 参考訳(メタデータ) (2023-05-25T08:59:36Z) - Topic-driven Distant Supervision Framework for Macro-level Discourse
Parsing [72.14449502499535]
テキストの内部修辞構造を解析する作業は、自然言語処理において難しい問題である。
近年のニューラルモデルの発展にもかかわらず、トレーニングのための大規模で高品質なコーパスの欠如は大きな障害となっている。
近年の研究では、遠方の監督を用いてこの制限を克服しようと試みている。
論文 参考訳(メタデータ) (2023-05-23T07:13:51Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - Neuro-Symbolic Constraint Programming for Structured Prediction [32.427665902031436]
ニューラルネットワークを制約付き構造予測器に注入する手法であるNesterを提案する。
Nesterは2つのコンポーネントの特徴を活用している。ニューラルネットワークは低レベルのデータから複雑な表現を学習する。
手書き式認識の実証的評価は、Nesterがニューラルネットワークと制約構造予測器の両方よりも優れたパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2021-03-31T17:31:33Z) - Discontinuous Constituent Parsing with Pointer Networks [0.34376560669160383]
不連続な構成木は、ドイツ語のような言語の文法的な現象を表現するのに不可欠である。
係り受け解析の最近の進歩は、ポインタネットワークが文中の単語間の構文関係を効率的に解析することに優れていることを示している。
本稿では,最も正確な不連続な構成表現を生成するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-05T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。