論文の概要: Understanding Unnatural Questions Improves Reasoning over Text
- arxiv url: http://arxiv.org/abs/2010.09366v1
- Date: Mon, 19 Oct 2020 10:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:29:52.981212
- Title: Understanding Unnatural Questions Improves Reasoning over Text
- Title(参考訳): 不自然な質問を理解することでテキストによる推論が改善
- Authors: Xiao-Yu Guo and Yuan-Fang Li and Gholamreza Haffari
- Abstract要約: 生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
- 参考スコア(独自算出の注目度): 54.235828149899625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex question answering (CQA) over raw text is a challenging task. A
prominent approach to this task is based on the programmer-interpreter
framework, where the programmer maps the question into a sequence of reasoning
actions which is then executed on the raw text by the interpreter. Learning an
effective CQA model requires large amounts of human-annotated data,consisting
of the ground-truth sequence of reasoning actions, which is time-consuming and
expensive to collect at scale. In this paper, we address the challenge of
learning a high-quality programmer (parser) by projecting natural
human-generated questions into unnatural machine-generated questions which are
more convenient to parse. We firstly generate synthetic (question,action
sequence) pairs by a data generator, and train a semantic parser that
associates synthetic questions with their corresponding action sequences. To
capture the diversity when applied tonatural questions, we learn a projection
model to map natural questions into their most similar unnatural questions for
which the parser can work well. Without any natural training data, our
projection model provides high-quality action sequences for the CQA task.
Experimental results show that the QA model trained exclusively with synthetic
data generated by our method outperforms its state-of-the-art counterpart
trained on human-labeled data.
- Abstract(参考訳): 生テキストに対する複雑な質問応答(CQA)は難しい課題である。
このタスクに対する顕著なアプローチは、プログラマ-解釈フレームワークに基づいており、プログラマは質問を推論アクションのシーケンスにマッピングし、インタプリタによって生のテキスト上で実行される。
効果的なCQAモデルの学習には,大規模な収集に要する時間と費用のかかる推論行動の基幹構造からなる大量の人手によるデータが必要である。
本稿では,自然に生成された質問を,解析しやすい不自然な機械生成質問に投影することで,高品質なプログラマ(parser)を習得する課題に対処する。
まず、データジェネレータによって合成(クエクション、アクションシーケンス)ペアを生成し、合成質問と対応するアクションシーケンスを関連付けるセマンティックパーサを訓練する。
自然問題に適用した場合の多様性を捉えるために、自然な質問をパーサーがうまく機能する最も類似した不自然な質問にマッピングするプロジェクションモデルを学ぶ。
自然なトレーニングデータなしでは、我々の投影モデルはCQAタスクに高品質なアクションシーケンスを提供する。
実験結果から,本手法で生成した合成データのみをトレーニングしたqaモデルは,人間のラベルデータでトレーニングされた最先端データよりも優れていることがわかった。
関連論文リスト
- Syn-QA2: Evaluating False Assumptions in Long-tail Questions with Synthetic QA Datasets [7.52684798377727]
合成された質問応答(QA)データセットの集合であるSyn-(QA)$2$を紹介する。
先行研究の結果を反映して,QAにおける誤った仮定は困難であることが判明した。
検出タスクは、自然発生の質問よりも長い尾の質問の方が難しい。
論文 参考訳(メタデータ) (2024-03-18T18:01:26Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Weakly Supervised Visual Question Answer Generation [2.7605547688813172]
視覚情報とキャプションから手続き的に質問応答対を合成的に生成する弱教師付き手法を提案する。
我々は,VQAデータセットの総合的な実験分析を行い,BLEUスコアのSOTA手法を著しく上回る結果を得た。
論文 参考訳(メタデータ) (2023-06-11T08:46:42Z) - HPE:Answering Complex Questions over Text by Hybrid Question Parsing and
Execution [92.69684305578957]
テキストQAにおける質問解析と実行の枠組みを提案する。
提案したフレームワークは、トップダウンの質問パースとして、ボトムアップの回答バックトラックとみなすことができる。
MuSiQue,2WikiQA,HotpotQA,およびNQに関する実験により,提案した解析およびハイブリッド実行フレームワークが,教師付き,少数ショット,ゼロショット設定における既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-12T22:37:06Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - Learning to Ask Conversational Questions by Optimizing Levenshtein
Distance [83.53855889592734]
明示的な編集動作によって最小レベンシュテイン距離(MLD)を最適化する強化反復シーケンス編集(RISE)フレームワークを導入する。
RISEは会話の特徴に関連するトークンに注意を払うことができる。
2つのベンチマークデータセットの実験結果から、RISEは最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-30T08:44:19Z) - Cooperative Learning of Zero-Shot Machine Reading Comprehension [9.868221447090855]
質問生成と回答のための協調的自己学習モデルを提案する。
注釈なしで任意のテキストコーポラで質問生成と回答モデルをトレーニングできます。
私たちのモデルは、標準質問応答ベンチマークで最先端の事前学習された言語モデルよりも優れています。
論文 参考訳(メタデータ) (2021-03-12T18:22:28Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - LogiQA: A Challenge Dataset for Machine Reading Comprehension with
Logical Reasoning [20.81312285957089]
私たちは、人間の論理的推論をテストするための専門家による質問から得られた、LogiQAという名前の包括的なデータセットを構築します。
その結果、最先端のニューラルモデルでは、人間の天井よりもはるかにパフォーマンスが悪いことが判明した。
我々のデータセットは、ディープラーニングNLP設定下で論理AIを再調査するためのベンチマークとしても機能する。
論文 参考訳(メタデータ) (2020-07-16T05:52:16Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。