論文の概要: MetaQA: Combining Expert Agents for Multi-Skill Question Answering
- arxiv url: http://arxiv.org/abs/2112.01922v1
- Date: Fri, 3 Dec 2021 14:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 14:30:08.473614
- Title: MetaQA: Combining Expert Agents for Multi-Skill Question Answering
- Title(参考訳): MetaQA:マルチスキル質問応答のためのエキスパートエージェントの組み合わせ
- Authors: Haritz Puerto, G\"ozde G\"ul \c{S}ahin, Iryna Gurevych
- Abstract要約: マルチデータセットモデルの有望な結果にもかかわらず、いくつかのドメインやQAフォーマットは特定のアーキテクチャを必要とするかもしれません。
本稿では,専門家エージェントと,質問,回答予測,回答予測信頼度スコアを考慮した,新しい,柔軟な,学習効率の高いアーキテクチャを組み合わせることを提案する。
- 参考スコア(独自算出の注目度): 49.35261724460689
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The recent explosion of question answering (QA) datasets and models has
increased the interest in the generalization of models across multiple domains
and formats by either training models on multiple datasets or by combining
multiple models. We argue that despite the promising results of multi-dataset
models, some domains or QA formats may require specific architectures, and thus
the adaptability of these models might be limited. In addition, current
approaches for combining models disregard cues such as question-answer
compatibility. In this work, we propose to combine expert agents with a novel,
flexible, and training-efficient architecture that considers questions, answer
predictions, and answer-prediction confidence scores to select the best answer
among a list of answer candidates. Through quantitative and qualitative
experiments we show that our model i) creates a collaboration between agents
that outperforms previous multi-agent and multi-dataset approaches in both
in-domain and out-of-domain scenarios, ii) is extremely data-efficient to
train, and iii) can be adapted to any QA format.
- Abstract(参考訳): 質問応答(qa)データセットとモデルが最近急増したことにより、複数のデータセットでモデルをトレーニングするか、複数のモデルを組み合わせることによって、複数のドメインとフォーマットをまたいだモデルの一般化への関心が高まっている。
マルチデータセットモデルの有望な結果にもかかわらず、いくつかのドメインやQAフォーマットは特定のアーキテクチャを必要とする可能性があるため、これらのモデルの適応性は制限される。
さらに、モデルを組み合わせるための現在のアプローチは、質問応答互換性のような手がかりを無視している。
本研究では,質問,回答予測,回答予測信頼度スコアを考慮し,解答候補の中から最良の解答を選択する,新しい,柔軟な,学習効率の高いアーキテクチャと専門家エージェントを組み合わせることを提案する。
定量的で質的な実験を通して 我々のモデルは
i) ドメイン内シナリオとドメイン外シナリオの両方において、従来のマルチエージェントおよびマルチデータセットアプローチを上回るエージェント間のコラボレーションを作成する。
二 訓練に極めてデータ効率が良いこと、及び
iii) 任意のQAフォーマットに適合することができる。
関連論文リスト
- UNK-VQA: A Dataset and a Probe into the Abstention Ability of Multi-modal Large Models [55.22048505787125]
本稿ではUNK-VQAと呼ばれる包括的データセットを提案する。
まず、画像または疑問について意図的に摂動することで、既存のデータを拡大する。
そこで我々は,新たなマルチモーダル大規模モデルのゼロショット性能と少数ショット性能を広範囲に評価した。
論文 参考訳(メタデータ) (2023-10-17T02:38:09Z) - Towards Robust Multi-Modal Reasoning via Model Selection [7.6621866737827045]
LLMはエージェントの"脳"として機能し、協調的な多段階タスク解決のための複数のツールを編成する。
我々はテスト時に無視できるランタイムオーバーヘッドを持つプラグインとして、$textitM3$フレームワークを提案する。
実験の結果,我々のフレームワークは,ユーザ入力とサブタスク依存の両方を考慮した動的モデル選択を可能にすることがわかった。
論文 参考訳(メタデータ) (2023-10-12T16:06:18Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Chain-of-Skills: A Configurable Model for Open-domain Question Answering [79.8644260578301]
検索モデルは、現実世界の知識集約的なタスクに欠かせない要素である。
最近の研究はカスタマイズされたメソッドに焦点を合わせ、モデルの転送可能性とスケーラビリティを制限している。
本稿では,各モジュールがデータセット間で再利用可能なキースキルに対応するモジュールレトリバーを提案する。
論文 参考訳(メタデータ) (2023-05-04T20:19:39Z) - UKP-SQuARE v3: A Platform for Multi-Agent QA Research [48.92308487624824]
我々は、質問回答(QA)研究のためのオンラインプラットフォームであるUKP-SQuAREを拡張し、マルチエージェントシステムの3つのファミリーをサポートする。
推論速度の評価実験を行い、マルチデータセットモデルと比較して性能と速度のトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-03-31T15:07:36Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。