論文の概要: Pushing the Limits of AMR Parsing with Self-Learning
- arxiv url: http://arxiv.org/abs/2010.10673v1
- Date: Tue, 20 Oct 2020 23:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:04:07.095973
- Title: Pushing the Limits of AMR Parsing with Self-Learning
- Title(参考訳): 自己学習によるAMR解析の限界を押し上げる
- Authors: Young-Suk Lee, Ramon Fernandez Astudillo, Tahira Naseem, Revanth Gangi
Reddy, Radu Florian, Salim Roukos
- Abstract要約: AMR解析性能を向上させるために, トレーニングモデルの適用方法を示す。
我々は、追加の人間のアノテーションがなければ、これらのテクニックが既にパフォーマンスを向上し、最先端の結果が得られることを示した。
- 参考スコア(独自算出の注目度): 24.998016423211375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abstract Meaning Representation (AMR) parsing has experienced a notable
growth in performance in the last two years, due both to the impact of transfer
learning and the development of novel architectures specific to AMR. At the
same time, self-learning techniques have helped push the performance boundaries
of other natural language processing applications, such as machine translation
or question answering. In this paper, we explore different ways in which
trained models can be applied to improve AMR parsing performance, including
generation of synthetic text and AMR annotations as well as refinement of
actions oracle. We show that, without any additional human annotations, these
techniques improve an already performant parser and achieve state-of-the-art
results on AMR 1.0 and AMR 2.0.
- Abstract(参考訳): 抽象的意味表現(AMR:Abstract Meaning Representation)解析は、転送学習の影響とAMR特有の新しいアーキテクチャの開発の両方により、過去2年間に顕著なパフォーマンス向上を経験してきた。
同時に、自己学習技術は、機械翻訳や質問応答など、他の自然言語処理アプリケーションのパフォーマンス境界を押し上げるのに役立った。
本稿では,合成テキストの生成やAMRアノテーションの生成,行動オラクルの洗練など,AMR解析性能を向上させるために訓練されたモデルを適用する方法について検討する。
AMR 1.0 と AMR 2.0 では,これらの手法は人間のアノテーションを使わずに,すでにパフォーマンスの高いパーサを改良し,最先端の結果を得られることを示す。
関連論文リスト
- Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - RA-DIT: Retrieval-Augmented Dual Instruction Tuning [90.98423540361946]
Retrieval-augmented Language Model (RALMs) は、外部データストアからロングテールおよび最新の知識にアクセスすることで、パフォーマンスを向上させる。
既存のアプローチでは、LM事前トレーニングに高価な検索固有の修正が必要になるか、あるいは、最適以下のパフォーマンスをもたらすデータストアのポストホック統合を使用する必要がある。
本稿では,第3の選択肢を提供する軽量な微調整手法であるRetrieval-Augmented Dual Instruction Tuning (RA-DIT)を紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:16:26Z) - Cross-domain Generalization for AMR Parsing [30.34105706152887]
5つの領域における代表的AMRを5つ評価し,ドメイン間AMR解析の課題を分析した。
そこで本研究では,テキストとAMRの特徴の領域分布のばらつきを低減するための2つの手法について検討した。
論文 参考訳(メタデータ) (2022-10-22T13:24:13Z) - Retrofitting Multilingual Sentence Embeddings with Abstract Meaning
Representation [70.58243648754507]
抽象的意味表現(AMR)を用いた既存の多言語文の埋め込みを改善する新しい手法を提案する。
原文入力と比較すると、AMRは文の中核概念と関係を明確かつ曖昧に表す構造的意味表現である。
実験結果から,多言語文をAMRで埋め込むと,意味的類似性と伝達タスクの両方において,最先端の性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-10-18T11:37:36Z) - A Survey : Neural Networks for AMR-to-Text [2.3924114046608627]
AMR-to-Textは、抽象的意味表現(AMR)グラフから文を生成することを目的とした、NLPコミュニティの重要なテクニックの1つである。
2013年にAMRが提案されて以来、AMR-to-Textの研究は、構造化データのテキストへの必須の分岐として、ますます広まりつつある。
論文 参考訳(メタデータ) (2022-06-15T07:20:28Z) - ATP: AMRize Then Parse! Enhancing AMR Parsing with PseudoAMRs [34.55175412186001]
意味的あるいは形式的に関連付けられた補助タスクは、AMR解析をより強化する。
実証的な観点から,AMR解析を促進するための補助的タスクを含む原理的手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T13:15:59Z) - Maximum Bayes Smatch Ensemble Distillation for AMR Parsing [15.344108027018006]
本研究では,Smatchをベースとしたアンサンブル法とアンサンブル蒸留を併用することにより,銀データの還元率の低下を克服できることを示す。
我々は中国語、ドイツ語、イタリア語、スペイン語の言語間AMR解析のための新しい最先端技術を得た。
論文 参考訳(メタデータ) (2021-12-14T23:29:37Z) - A Comparative Study on Non-Autoregressive Modelings for Speech-to-Text
Generation [59.64193903397301]
非自己回帰モデル (NAR) はシーケンス内の複数の出力を同時に生成し、自動回帰ベースラインと比較して精度低下のコストで推論速度を著しく低減する。
エンドツーエンド自動音声認識(ASR)のための様々なNARモデリング手法の比較研究を行う。
各種課題の成果は, 精度・速度トレードオフや長文発話に対する頑健性など, NAR ASR の理解を深める上で興味深い結果をもたらす。
論文 参考訳(メタデータ) (2021-10-11T13:05:06Z) - Smelting Gold and Silver for Improved Multilingual AMR-to-Text
Generation [55.117031558677674]
AMRアノテーションの自動生成技術について検討する。
我々のモデルは、生成した銀AMRを利用する銀(機械翻訳)文で金AMRを訓練した。
我々のモデルは、ドイツ、イタリア、スペイン、中国の芸術のこれまでの状態を大きく上回っている。
論文 参考訳(メタデータ) (2021-09-08T17:55:46Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。