論文の概要: Answering Ambiguous Questions via Iterative Prompting
- arxiv url: http://arxiv.org/abs/2307.03897v1
- Date: Sat, 8 Jul 2023 04:32:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 16:47:12.373353
- Title: Answering Ambiguous Questions via Iterative Prompting
- Title(参考訳): イテレーティブ・プロンプティングによる曖昧な質問への回答
- Authors: Weiwei Sun and Hengyi Cai and Hongshen Chen and Pengjie Ren and Zhumin
Chen and Maarten de Rijke and Zhaochun Ren
- Abstract要約: オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
- 参考スコア(独自算出の注目度): 84.3426020642704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In open-domain question answering, due to the ambiguity of questions,
multiple plausible answers may exist. To provide feasible answers to an
ambiguous question, one approach is to directly predict all valid answers, but
this can struggle with balancing relevance and diversity. An alternative is to
gather candidate answers and aggregate them, but this method can be
computationally costly and may neglect dependencies among answers. In this
paper, we present AmbigPrompt to address the imperfections of existing
approaches to answering ambiguous questions. Specifically, we integrate an
answering model with a prompting model in an iterative manner. The prompting
model adaptively tracks the reading process and progressively triggers the
answering model to compose distinct and relevant answers. Additionally, we
develop a task-specific post-pretraining approach for both the answering model
and the prompting model, which greatly improves the performance of our
framework. Empirical studies on two commonly-used open benchmarks show that
AmbigPrompt achieves state-of-the-art or competitive results while using less
memory and having a lower inference latency than competing approaches.
Additionally, AmbigPrompt also performs well in low-resource settings. The code
are available at: https://github.com/sunnweiwei/AmbigPrompt.
- Abstract(参考訳): オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な答えが存在する可能性がある。
曖昧な質問に対して実現可能な回答を提供するには、すべての有効な回答を直接予測するアプローチがあるが、これは妥当性と多様性のバランスに苦労する可能性がある。
別の方法として、候補回答を収集して集約する方法があるが、この方法は計算コストが高く、回答間の依存関係を無視することができる。
本稿では,あいまいな疑問に答える既存手法の不完全性に対処するため,AmbigPromptを提案する。
具体的には,応答モデルと応答モデルとを反復的に統合する。
プロンプトモデルは、読み出しプロセスを適応的に追跡し、応答モデルを段階的にトリガーして、個別かつ関連する回答を構成する。
さらに、応答モデルとプロンプトモデルの両方に対してタスク固有のポストプレトレーニング手法を開発し、フレームワークの性能を大幅に改善する。
一般に使用されている2つのオープンベンチマークに関する実証研究によると、AmbigPromptは、メモリ使用量が少なく、競合するアプローチよりも推論レイテンシが低い状態で、最先端または競合的な結果を達成する。
さらに、AmbigPromptは低リソース設定でもうまく機能する。
コードは、https://github.com/sunnweiwei/AmbigPrompt.comで入手できる。
関連論文リスト
- Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - A Semantic-based Method for Unsupervised Commonsense Question Answering [40.18557352036813]
ラベル付きタスクデータに依存しないため、教師なしのコモンセンス質問応答は魅力的である。
教師なしコモンセンス質問応答のためのSemantic-based Question Answering法(SEQA)を提案する。
論文 参考訳(メタデータ) (2021-05-31T08:21:52Z) - Answering Ambiguous Questions through Generative Evidence Fusion and
Round-Trip Prediction [46.38201136570501]
本稿では,複数の通路からの証拠を集約し,一つの回答や質問対の集合を適応的に予測するモデルを提案する。
我々のモデルはRefuelと呼ばれ、AmbigQAデータセット上で新しい最先端のパフォーマンスを実現し、NQ-OpenおよびTriviaQA上での競合性能を示す。
論文 参考訳(メタデータ) (2020-11-26T05:48:55Z) - A Wrong Answer or a Wrong Question? An Intricate Relationship between
Question Reformulation and Answer Selection in Conversational Question
Answering [15.355557454305776]
会話の文脈における質問書き直し(QR)は、この現象により多くの光を放つことができることを示す。
TREC CAsT と QuAC (CANARD) のデータセットを用いて解析を行った。
論文 参考訳(メタデータ) (2020-10-13T06:29:51Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。