論文の概要: Simple or Complex? Complexity-Controllable Question Generation with Soft
Templates and Deep Mixture of Experts Model
- arxiv url: http://arxiv.org/abs/2110.06560v1
- Date: Wed, 13 Oct 2021 08:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 14:31:24.565551
- Title: Simple or Complex? Complexity-Controllable Question Generation with Soft
Templates and Deep Mixture of Experts Model
- Title(参考訳): シンプルか複雑か?
ソフトテンプレートによる複雑制御可能な質問生成とエキスパートモデルの深部混合
- Authors: Sheng Bi and Xiya Cheng and Yuan-Fang Li and Lizhen Qu and Shirong
Shen and Guilin Qi and Lu Pan and Yinlin Jiang
- Abstract要約: 本稿では,ソフトテンプレートのセレクタとして専門家(MoE)の混合を取り入れた,エンドツーエンドのニューラル複雑性制御可能な質問生成モデルを提案する。
本手法では,質問の複雑さを評価するために,新しいクロスドメイン複雑度推定器を導入する。
2つのベンチマークQAデータセットの実験結果は、我々のQGモデルが、自動評価と手動評価の両方において最先端の手法よりも優れていることを示している。
- 参考スコア(独自算出の注目度): 15.411214563867548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to generate natural-language questions with controlled complexity
levels is highly desirable as it further expands the applicability of question
generation. In this paper, we propose an end-to-end neural
complexity-controllable question generation model, which incorporates a mixture
of experts (MoE) as the selector of soft templates to improve the accuracy of
complexity control and the quality of generated questions. The soft templates
capture question similarity while avoiding the expensive construction of actual
templates. Our method introduces a novel, cross-domain complexity estimator to
assess the complexity of a question, taking into account the passage, the
question, the answer and their interactions. The experimental results on two
benchmark QA datasets demonstrate that our QG model is superior to
state-of-the-art methods in both automatic and manual evaluation. Moreover, our
complexity estimator is significantly more accurate than the baselines in both
in-domain and out-domain settings.
- Abstract(参考訳): 複雑性レベルが制御された自然言語質問を生成する能力は、質問生成の適用性をさらに拡大する上で非常に望ましい。
本稿では,ソフトテンプレートのセレクタとして専門家(MoE)が混在し,複雑性制御の精度と生成した質問の品質が向上する,エンドツーエンドのニューラル複雑性制御可能な質問生成モデルを提案する。
ソフトテンプレートは、実際のテンプレートの高価な構築を避けながら、質問の類似性をキャプチャする。
提案手法では,問答の通路,問答,問答,問答の相互作用を考慮し,問答の複雑性を評価するための新しいクロスドメイン複雑性推定器を導入する。
2つのベンチマークQAデータセットの実験結果は、我々のQGモデルは、自動評価と手動評価の両方において最先端の手法よりも優れていることを示している。
さらに、当社の複雑性推定器は、ドメイン内およびドメイン外設定のベースラインよりもはるかに正確です。
関連論文リスト
- Flow-Lenia.png: Evolving Multi-Scale Complexity by Means of Compression [0.0]
セルオートマトン状態に対するマルチスケール複雑度を定量化する適合度尺度を提案する。
圧縮性の使用はコルモゴロフ複雑性(英語版)(Kolmogorov complexity)の概念に基づいている。
論文 参考訳(メタデータ) (2024-08-08T04:13:17Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - On the Benefits of Leveraging Structural Information in Planning Over
the Learned Model [3.3512508970931236]
本稿では, サンプルの複雑さを低減させる手法として, システム構造情報を活用する利点について検討する。
分析の結果,モデルの構造的情報を活用することで,サンプルの複雑さを大幅に削減できることが示唆された。
論文 参考訳(メタデータ) (2023-03-15T18:18:01Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Quantum Parameterized Complexity [1.01129133945787]
パラメータ化複雑性クラスの範囲の量子アナログを導入する。
このフレームワークは、QMAハード問題のパラメータ化バージョンの複雑さの豊富な分類を公開している。
論文 参考訳(メタデータ) (2022-03-15T15:34:38Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。