論文の概要: Teach model to answer questions after comprehending the document
- arxiv url: http://arxiv.org/abs/2307.08931v1
- Date: Tue, 18 Jul 2023 02:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 16:39:16.077456
- Title: Teach model to answer questions after comprehending the document
- Title(参考訳): 文書読解後の質問に答える学習モデル
- Authors: Ruiqing Sun and Ping Jian
- Abstract要約: Multi-choice Machine Reading (MRC)は自然言語処理(NLP)の挑戦的な拡張である
本稿では,MSCタスクを2段階に分割することで,文書の理解を深める2段階の知識蒸留法を提案する。
- 参考スコア(独自算出の注目度): 1.4264737570114632
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-choice Machine Reading Comprehension (MRC) is a challenging extension
of Natural Language Processing (NLP) that requires the ability to comprehend
the semantics and logical relationships between entities in a given text. The
MRC task has traditionally been viewed as a process of answering questions
based on the given text. This single-stage approach has often led the network
to concentrate on generating the correct answer, potentially neglecting the
comprehension of the text itself. As a result, many prevalent models have faced
challenges in performing well on this task when dealing with longer texts. In
this paper, we propose a two-stage knowledge distillation method that teaches
the model to better comprehend the document by dividing the MRC task into two
separate stages. Our experimental results show that the student model, when
equipped with our method, achieves significant improvements, demonstrating the
effectiveness of our method.
- Abstract(参考訳): MRC(Multi-choice Machine Reading Comprehension)は、自然言語処理(NLP)の難解な拡張であり、与えられたテキスト内のエンティティ間のセマンティクスと論理的関係を理解する能力を必要とする。
mrcタスクは伝統的に、与えられたテキストに基づいて質問に答えるプロセスと見なされてきた。
この単段的なアプローチによって、ネットワークはしばしば正しい答えを生成することに集中し、テキスト自体の理解を怠る可能性がある。
その結果、多くの一般的なモデルでは、長いテキストを扱う際にこのタスクをうまく実行するという課題に直面している。
本稿では,mrcタスクを2つの異なる段階に分けて,より理解を深めるようにモデルに教える2段階の知識蒸留法を提案する。
実験の結果,本手法を応用した学生モデルは,本手法の有効性を実証し,大幅な改善が得られた。
関連論文リスト
- From Large to Tiny: Distilling and Refining Mathematical Expertise for Math Word Problems with Weakly Supervision [12.023661884821554]
本稿では,大規模言語モデルから小型言語モデルへの数学的知識の伝達を徹底的に行う,革新的な2段階のフレームワークを提案する。
提案手法は,探索型'確率方程式'ペアにおける意味理解機能を完全に活用する。
Math23KとWeak12Kデータセットでは、既存の小さなモデルメソッドと比較して大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-03-21T13:29:54Z) - Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - Bridging the Gap between Language Model and Reading Comprehension:
Unsupervised MRC via Self-Supervision [34.01738910736325]
教師なし機械読解(MRC)のための新しいフレームワークを提案する。
MRC - Spotting-MLM のための自己スーパービジョン・プレテキスト・タスクを設計し、自己教師付き学習を通じて文書中の回答の範囲を見つけることを学ぶ。
実験の結果,本手法は教師なしMRCの最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2021-07-19T02:14:36Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - Enhancing Answer Boundary Detection for Multilingual Machine Reading
Comprehension [86.1617182312817]
そこで我々は,句境界管理を付加するために,微調整段階における2つの補助的タスクを提案する。
混合機械読解タスクは、質問または通過を他の言語に翻訳し、言語横断の問合せペアを構築する。
Webから抽出した知識フレーズを活用する言語に依存しない知識マスキングタスク。
論文 参考訳(メタデータ) (2020-04-29T10:44:00Z) - Knowledgeable Dialogue Reading Comprehension on Key Turns [84.1784903043884]
MRC(Multi-choice Machine reading comprehension)は、ある項目と質問に対する候補オプションから正しい回答を選択するモデルである。
本研究は,複数回対話を行う対話型MRCに焦点を当てている。
それは2つの課題に悩まされ、答えの選択決定は、最近役に立つコモンセンスをサポートせずに行われ、マルチターンコンテキストは、かなりの無関係な情報を隠蔽する可能性がある。
論文 参考訳(メタデータ) (2020-04-29T07:04:43Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。