論文の概要: Learning to Transpile AMR into SPARQL
- arxiv url: http://arxiv.org/abs/2112.07877v1
- Date: Wed, 15 Dec 2021 04:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 01:19:38.617265
- Title: Learning to Transpile AMR into SPARQL
- Title(参考訳): AMRをSPARQLに変換する学習
- Authors: Mihaela Bornea, Ramon Fernandez Astudillo, Tahira Naseem, Nandana
Mihindukulasooriya, Ibrahim Abdelaziz, Pavan Kapanipathi, Radu Florian, Salim
Roukos
- Abstract要約: 我々は、知識ベース質問回答(KBQA)のためのSPARQLにAMRを変換する遷移ベースシステムを提案する。
これにより、抽象化問題の一部を、強く事前訓練されたセマンティックベースに委譲することができる。
結果は単純で、決定のためのテキストを提供し、LC-QuAD (F1 53.4) におけるAMRベースのKBQAの最近の進歩を上回り、QALD (F1 30.8) と一致する。
- 参考スコア(独自算出の注目度): 15.093896780449878
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a transition-based system to transpile Abstract Meaning
Representation (AMR) into SPARQL for Knowledge Base Question Answering (KBQA).
This allows to delegate part of the abstraction problem to a strongly
pre-trained semantic parser, while learning transpiling with small amount of
paired data. We departure from recent work relating AMR and SPARQL constructs,
but rather than applying a set of rules, we teach the BART model to selectively
use these relations. Further, we avoid explicitly encoding AMR but rather
encode the parser state in the attention mechanism of BART, following recent
semantic parsing works. The resulting model is simple, provides supporting text
for its decisions, and outperforms recent progress in AMR-based KBQA in LC-QuAD
(F1 53.4), matching it in QALD (F1 30.8), while exploiting the same inductive
biases.
- Abstract(参考訳): 本稿では,AMR(Abstract Meaning Representation)をSPARQL for Knowledge Base Question Answering (KBQA)に変換する遷移ベースシステムを提案する。
これにより、抽象問題の一部を強力な事前訓練されたセマンティックパーサに委譲し、少量のペアデータによるトランスパイリングを学習することができる。
我々は、AMRとSPARQLの構造に関する最近の研究から出発するが、一連のルールを適用するのではなく、BARTモデルにこれらの関係を選択的に利用するように教える。
さらに、AMRを明示的に符号化するのではなく、BARTの注意機構におけるパーサ状態をエンコードする。
結果は単純で、決定のためのテキストを提供し、LC-QuAD (F1 53.4) におけるAMRベースのKBQAの最近の進歩を上回り、QALD (F1 30.8) と一致する。
関連論文リスト
- AMRs Assemble! Learning to Ensemble with Autoregressive Models for AMR
Parsing [38.731641198934646]
アンサンブルモデルがSMATCH計量の弱点を利用してより高いスコアを得る方法を示すが、時にグラフが破損することがある。
本稿では,トランスフォーマーモデルに基づく2つの新しいアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2023-06-19T08:58:47Z) - An AMR-based Link Prediction Approach for Document-level Event Argument
Extraction [51.77733454436013]
文書レベルのイベント調停抽出(文書レベルEAE)のための抽象的意味表現(AMR)を導入した最近の研究動向
本研究では,AEをAMRグラフ上のリンク予測問題として再検討する。
本稿では,より少ない情報量のサブグラフやエッジタイプを圧縮し,スパン情報を統合し,同じ文書内の事象をハイライトする新たなグラフ構造であるTalored AMR Graph(TAG)を提案する。
論文 参考訳(メタデータ) (2023-05-30T16:07:48Z) - Exploiting Abstract Meaning Representation for Open-Domain Question
Answering [18.027908933572203]
抽象的意味表現(AMR)グラフを用いて、複雑な意味情報を理解するモデルを支援する。
また,Natural Questions (NQ) と TriviaQA (TQ) の結果から,GST法が性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2023-05-26T16:00:16Z) - Machine Reading Comprehension using Case-based Reasoning [92.51061570746077]
本稿では,機械読解における解答抽出の正確かつ解釈可能な手法を提案する。
本手法は,類似した質問に対する文脈的回答が相互に意味的類似性を共有するという仮説に基づいている。
論文 参考訳(メタデータ) (2023-05-24T07:09:56Z) - AutoQGS: Auto-Prompt for Low-Resource Knowledge-based Question
Generation from SPARQL [18.019353543946913]
本研究では,知識に基づく質問生成(KBQG)の課題について検討する。
従来のKBQGは知識グラフのファクトトリプルから質問を生成するが、これはSPARQLの集約や比較のような複雑な操作を表現できない。
本研究では,SPARQLをNL記述に書き換えるために,大規模教師なしデータに基づいて訓練された自動プロンプタを提案する。
論文 参考訳(メタデータ) (2022-08-26T06:53:46Z) - Inducing and Using Alignments for Transition-based AMR Parsing [51.35194383275297]
複雑なパイプラインに依存することなくノード間アライメントを学習するAMRのためのニューラルアライメント器を提案する。
我々は,AMR3.0のビームサーチを必要とせず,銀のトレーニングされた性能に適合する,金のみのトレーニングモデルのための新しい最先端技術を得た。
論文 参考訳(メタデータ) (2022-05-03T12:58:36Z) - ATP: AMRize Then Parse! Enhancing AMR Parsing with PseudoAMRs [34.55175412186001]
意味的あるいは形式的に関連付けられた補助タスクは、AMR解析をより強化する。
実証的な観点から,AMR解析を促進するための補助的タスクを含む原理的手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T13:15:59Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - Improving AMR Parsing with Sequence-to-Sequence Pre-training [39.33133978535497]
本稿では,Sequence-to-Sequence (seq2seq) AMR解析に焦点を当てる。
単体および関節の両方で事前学習モデルを構築するために,Seq2seq事前学習手法を提案する。
実験の結果,シングルモデルとジョイントモデルの両方で性能が有意に向上した。
論文 参考訳(メタデータ) (2020-10-05T04:32:47Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - Break It Down: A Question Understanding Benchmark [79.41678884521801]
本稿では,質問に対する質問分解表現(QDMR)について紹介する。
QDMRは、質問に答えるために必要な自然言語で表されるステップの順序付きリストを構成する。
83万組の質問と彼らのQDMRを含むBreakデータセットをリリースする。
論文 参考訳(メタデータ) (2020-01-31T11:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。