論文の概要: Long-Tailed Question Answering in an Open World
- arxiv url: http://arxiv.org/abs/2305.06557v1
- Date: Thu, 11 May 2023 04:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 16:09:02.261005
- Title: Long-Tailed Question Answering in an Open World
- Title(参考訳): オープンワールドにおけるロングテール質問応答
- Authors: Yi Dai, Hao Lang, Yinhe Zheng, Fei Huang, Yongbin Li
- Abstract要約: 我々は、Long-Tailed QA (OLTQA) を、長い尾の分散データから学習するものとして定義する。
OLTQAモデルを提案し,頭,尾,目立たないタスク間の知識共有を促進する。
大規模なOLTQAデータセットでは、我々のモデルは一貫して最先端のモデルよりも優れています。
- 参考スコア(独自算出の注目度): 46.67715607552547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often have an open long-tailed distribution, and building a
unified QA model supporting various tasks is vital for practical QA
applications. However, it is non-trivial to extend previous QA approaches since
they either require access to seen tasks of adequate samples or do not
explicitly model samples from unseen tasks. In this paper, we define Open
Long-Tailed QA (OLTQA) as learning from long-tailed distributed data and
optimizing performance over seen and unseen QA tasks. We propose an OLTQA model
that encourages knowledge sharing between head, tail and unseen tasks, and
explicitly mines knowledge from a large pre-trained language model (LM).
Specifically, we organize our model through a pool of fine-grained components
and dynamically combine these components for an input to facilitate knowledge
sharing. A retrieve-then-rerank frame is further introduced to select
in-context examples, which guild the LM to generate text that express knowledge
for QA tasks. Moreover, a two-stage training approach is introduced to
pre-train the framework by knowledge distillation (KD) from the LM and then
jointly train the frame and a QA model through an adaptive mutual KD method. On
a large-scale OLTQA dataset we curate from 43 existing QA datasets, our model
consistently outperforms the state-of-the-art. We release the code and data at
\url{https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/oltqa}.
- Abstract(参考訳): 実世界のデータは、しばしばオープンな長期分布を持ち、様々なタスクをサポートする統一されたQAモデルを構築することは、実用的なQAアプリケーションにとって不可欠である。
しかし、適切なサンプルの参照タスクへのアクセスを必要とするか、あるいは目に見えないタスクからのサンプルを明示的にモデル化しないため、従来のQAアプローチを拡張するのは簡単ではない。
本稿では、Long-Tailed QA(OLTQA)を、長い尾を持つ分散データから学習し、見知らぬQAタスクよりもパフォーマンスを最適化するものとして定義する。
本稿では,頭部,尾部,未確認タスク間の知識共有を促進するOLTQAモデルを提案し,大規模事前学習型言語モデル(LM)の知識を明示的にマイニングする。
具体的には、詳細なコンポーネントのプールを通じてモデルを整理し、これらのコンポーネントを動的に組み合わせて入力し、知識共有を容易にする。
さらに、QAタスクの知識を表すテキストを生成するためにLMを誘導するインコンテキストの例を選択するために、検索-then-rerankフレームが導入された。
さらに、LMからの知識蒸留(KD)によりフレームワークを事前訓練し、適応的相互KD法によりフレームとQAモデルを共同訓練するために、2段階のトレーニング手法を導入する。
大規模なOLTQAデータセットでは、既存の43のQAデータセットからキュレートします。
コードとデータは \url{https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/oltqa} で公開しています。
関連論文リスト
- Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - Closed-book Question Generation via Contrastive Learning [20.644215991166895]
コントラスト学習モジュールと回答再構成モジュールを併用した新しいQGモデルを提案する。
提案手法を応用して,既存のクローズドブックQAシステムを改善する方法について述べる。
論文 参考訳(メタデータ) (2022-10-13T06:45:46Z) - Continuous QA Learning with Structured Prompts [20.246786740364133]
Dianaは動的アーキテクチャベースの生涯QAモデルで、一連のQAタスクを学習しようとする。
階層的に整理された4つのプロンプトは、異なる粒度からQA知識を取得するためにダイアナで使用される。
実験では、Dianaは、特に目に見えないタスクの処理において、最先端のQAモデルよりも優れています。
論文 参考訳(メタデータ) (2022-08-31T02:38:16Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。