論文の概要: Multi-span Style Extraction for Generative Reading Comprehension
- arxiv url: http://arxiv.org/abs/2009.07382v2
- Date: Mon, 28 Dec 2020 13:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 06:16:38.231816
- Title: Multi-span Style Extraction for Generative Reading Comprehension
- Title(参考訳): 生成読解のためのマルチスパンスタイル抽出
- Authors: Junjie Yang, Zhuosheng Zhang, Hai Zhao
- Abstract要約: 生成的MRCをマルチスパン抽出としてスムーズに解決できる新しいフレームワークを提案する。
より詳細な実験により、この新しいアプローチは生成モデルと単一スパンモデルの間のジレンマを緩和できることを示した。
- 参考スコア(独自算出の注目度): 90.6069071495214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative machine reading comprehension (MRC) requires a model to generate
well-formed answers. For this type of MRC, answer generation method is crucial
to the model performance. However, generative models, which are supposed to be
the right model for the task, in generally perform poorly. At the same time,
single-span extraction models have been proven effective for extractive MRC,
where the answer is constrained to a single span in the passage. Nevertheless,
they generally suffer from generating incomplete answers or introducing
redundant words when applied to the generative MRC. Thus, we extend the
single-span extraction method to multi-span, proposing a new framework which
enables generative MRC to be smoothly solved as multi-span extraction. Thorough
experiments demonstrate that this novel approach can alleviate the dilemma
between generative models and single-span models and produce answers with
better-formed syntax and semantics.
- Abstract(参考訳): 生成機械読解(MRC)は、良好な解答を生成するためのモデルを必要とする。
この種のMRCでは,応答生成法がモデル性能に不可欠である。
しかしながら、タスクに適したモデルであるはずの生成モデルは、一般的にはパフォーマンスが悪くなります。
同時に、単一スパン抽出モデルが抽出MCCに有効であることが証明され、その解答は通路内の1つのスパンに制限される。
それにもかかわらず、それらは通常、生成mrcに適用される場合、不完全な回答や冗長な単語の導入に苦しむ。
そこで,本手法をマルチスパン抽出に拡張し,生成的MRCをマルチスパン抽出としてスムーズに解ける新しいフレームワークを提案する。
徹底した実験により、この新しいアプローチは生成モデルと単一スパンモデルの間のジレンマを緩和し、より良い構文と意味論で答えを生み出すことができる。
関連論文リスト
- Enhancing Pre-Trained Generative Language Models with Question Attended Span Extraction on Machine Reading Comprehension [6.602323571343169]
学習前生成言語モデル(PLM)の微調整段階で統合されたQASEは,その性能を著しく向上させる。
QASEモジュールの有効性は、さまざまなデータセットで厳格にテストされている。
論文 参考訳(メタデータ) (2024-04-27T19:42:51Z) - Adapting Pre-trained Generative Models for Extractive Question Answering [4.993041970406846]
本稿では、事前学習された生成モデルのパワーを用いて、抽出されたQAタスクに対処する新しいアプローチを提案する。
本稿では,既存の最先端モデルと比較して,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-11-06T09:01:02Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Composing Answer from Multi-spans for Reading Comprehension [77.32873012668783]
本稿では,非抽出機械読解(MRC)タスクに対する応答を生成する新しい手法を提案する。
提案手法は,長い解答を正確に生成する性能が向上し,競合する2つの典型的な1スパンとSeq2Seqのベースラインデコーダよりも大幅に向上する。
論文 参考訳(メタデータ) (2020-09-14T01:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。