論文の概要: Learning to Generate Questions by Enhancing Text Generation with
Sentence Selection
- arxiv url: http://arxiv.org/abs/2212.12192v1
- Date: Fri, 23 Dec 2022 08:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 16:34:16.718819
- Title: Learning to Generate Questions by Enhancing Text Generation with
Sentence Selection
- Title(参考訳): 文選択によるテキスト生成の強化による質問生成の学習
- Authors: Do Hoang Thai Duong, Nguyen Hong Son, Hung Le, Minh-Tien Nguyen
- Abstract要約: 本稿では,回答認識型質問生成問題に対するアプローチを提案する。
セレクタとジェネレータの2つのモジュールを含むモデルを設計する。
ジェネレータは、セレクタからのローカル情報と、エンコーダによって符号化されたコンテキスト全体からグローバル情報とを暗黙的に組み合わせて質問を生成する。
- 参考スコア(独自算出の注目度): 18.49166601375659
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an approach for the answer-aware question generation problem.
Instead of only relying on the capability of strong pre-trained language
models, we observe that the information of answers and questions can be found
in some relevant sentences in the context. Based on that, we design a model
which includes two modules: a selector and a generator. The selector forces the
model to more focus on relevant sentences regarding an answer to provide
implicit local information. The generator generates questions by implicitly
combining local information from the selector and global information from the
whole context encoded by the encoder. The model is trained jointly to take
advantage of latent interactions between the two modules. Experimental results
on two benchmark datasets show that our model is better than strong pre-trained
models for the question generation task. The code is also available
(shorturl.at/lV567).
- Abstract(参考訳): 回答認識型質問生成問題に対するアプローチを提案する。
強固な事前学習された言語モデルの能力のみに頼るのではなく、文脈内のいくつかの関連文で回答や質問の情報が見つかることを観察する。
それに基づいて,セレクタとジェネレータという2つのモジュールを含むモデルを設計する。
セレクタは、暗黙のローカル情報を提供するために、解答に関する関連文にもっと集中するようにモデルを強制する。
生成器は、セレクタからのローカル情報と、エンコーダによって符号化されたコンテキスト全体からグローバル情報とを暗黙的に組み合わせて質問を生成する。
このモデルは2つのモジュール間の遅延相互作用を活用するために共同で訓練されている。
2つのベンチマークデータセットの実験結果から,質問生成タスクにおいて,我々のモデルは強い事前学習モデルよりも優れていることが示された。
コードも利用可能である(shorturl.at/lV567)。
関連論文リスト
- Pre-training Cross-lingual Open Domain Question Answering with
Large-scale Synthetic Supervision [49.49928764695172]
CLQAは単一エンコーダデコーダモデルを用いて処理可能であることを示す。
ウィキペディア内の言語間リンク構造を利用した自己教師型手法を提案する。
教師付き言語適応設定とゼロショット言語適応設定の両方で同等の手法を上回り、我々のアプローチである textttCLASS を示す。
論文 参考訳(メタデータ) (2024-02-26T11:42:29Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Zero-shot Commonsense Question Answering with Cloze Translation and
Consistency Optimization [20.14487209460865]
自然質問をクローズスタイルの文に翻訳できる4つの翻訳手法について検討する。
提案手法は知識ベース改良モデルと相補的なデータセットであり,それらを組み合わせることで,最先端のゼロショット性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-01-01T07:12:49Z) - Teach Me What to Say and I Will Learn What to Pick: Unsupervised
Knowledge Selection Through Response Generation with Pretrained Generative
Models [9.625301186732598]
事前学習した生成モデルの教師なし選択能力について検討する。
エンコーダとデコーダの間にスコア・アンド・アグリゲートモジュールを追加することで,適切な知識を選択することができることを示す。
論文 参考訳(メタデータ) (2021-10-05T14:12:47Z) - Joint Models for Answer Verification in Question Answering Systems [85.93456768689404]
我々は3方向のマルチクラス化器を構築し、解答が他の解答をサポートするか、反証するか、あるいは中立かを決定する。
私たちは、WikiQA、TREC-QA、実世界のデータセットでモデルをテストしました。
論文 参考訳(メタデータ) (2021-07-09T05:34:36Z) - Cooperative Learning of Zero-Shot Machine Reading Comprehension [9.868221447090855]
質問生成と回答のための協調的自己学習モデルを提案する。
注釈なしで任意のテキストコーポラで質問生成と回答モデルをトレーニングできます。
私たちのモデルは、標準質問応答ベンチマークで最先端の事前学習された言語モデルよりも優れています。
論文 参考訳(メタデータ) (2021-03-12T18:22:28Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - Dense-Caption Matching and Frame-Selection Gating for Temporal
Localization in VideoQA [96.10612095576333]
本稿では,マルチモーダルな入力源を効果的に統合し,時間的関連情報から質問に答えるビデオ質問応答モデルを提案する。
また,2レベルアテンション(単語・オブジェクト・フレームレベル),異なるソース(ビデオ・高密度キャプション)に対するマルチヘッド自己統合,ゲートへのより関連性の高い情報伝達などで構成されている。
当社のモデルは,各モデルコンポーネントが大きな利益をもたらす,難易度の高いTVQAデータセット上で評価され,全体的なモデルでは,最先端のモデルよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-05-13T16:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。