論文の概要: Clozer: Adaptable Data Augmentation for Cloze-style Reading
Comprehension
- arxiv url: http://arxiv.org/abs/2203.16027v1
- Date: Wed, 30 Mar 2022 03:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 01:15:40.745010
- Title: Clozer: Adaptable Data Augmentation for Cloze-style Reading
Comprehension
- Title(参考訳): Clozer: Clozeスタイルの読み込み理解のための適応可能なデータ拡張
- Authors: Holy Lovenia, Bryan Wilie, Willy Chung, Min Zeng, Samuel Cahyawijaya,
Su Dan, Pascale Fung
- Abstract要約: Clozerは、TAPTで使用されるシーケンスタグに基づくクローゼ応答抽出法である。
TAPTの有効性を向上する上で,Crozerはオラクルや最先端技術と比較して性能が著しく向上していることを示す。
- 参考スコア(独自算出の注目度): 37.80203744090205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-adaptive pre-training (TAPT) alleviates the lack of labelled data and
provides performance lift by adapting unlabelled data to downstream task.
Unfortunately, existing adaptations mainly involve deterministic rules that
cannot generalize well. Here, we propose Clozer, a sequence-tagging based cloze
answer extraction method used in TAPT that is extendable for adaptation on any
cloze-style machine reading comprehension (MRC) downstream tasks. We experiment
on multiple-choice cloze-style MRC tasks, and show that Clozer performs
significantly better compared to the oracle and state-of-the-art in escalating
TAPT effectiveness in lifting model performance, and prove that Clozer is able
to recognize the gold answers independently of any heuristics.
- Abstract(参考訳): task-adaptive pre-training (tapt) はラベル付きデータの欠如を軽減し、ラベルなしデータをダウンストリームタスクに適応することでパフォーマンス向上を実現する。
残念ながら、既存の適応は主によく一般化できない決定論的規則を含む。
本稿では, TAPT で使用されるシーケンスタグに基づくクローゼ応答抽出手法である Clozer を提案し, ダウンストリームタスクに対して, 任意のクローゼスタイルの機械読解(MRC) に適応できるように拡張する。
我々は,マルチチョースクローズ型のmrcタスクを実験し,モデル性能向上のタペット効果をエスカレートするために,oracleや最先端の技術と比較して,clozerが極めて優れた性能を示すとともに,どのヒューリスティックスとも独立してゴールド回答を認識可能であることを証明した。
関連論文リスト
- ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Improve Dense Passage Retrieval with Entailment Tuning [22.39221206192245]
検索システムの鍵となるのは、クエリとパスペアの関連スコアを計算することである。
我々は、NLIタスクにおけるエンテーメントの概念と、関連性の主要なクラスが一致していることを観察した。
我々は,高密度レトリバーの埋め込みを改善するために,エンテーメントチューニングと呼ばれる手法を設計する。
論文 参考訳(メタデータ) (2024-10-21T09:18:30Z) - S-CFE: Simple Counterfactual Explanations [21.975560789792073]
スパースデータに対する多様体対応の反実的説明を求める問題に対処する。
提案手法は,スパースかつ多様体に整列した反実的説明を効果的に生成する。
論文 参考訳(メタデータ) (2024-10-21T07:42:43Z) - From Imitation to Refinement -- Residual RL for Precise Assembly [19.9786629249219]
近年のビヘイビア・クローン(BC)の進歩により、ロボットに新しいタスクを教えるのが容易になった。
しかし、教育の容易さは信頼性の低いパフォーマンスを犠牲にしている。
我々は,BCの教えやすさと長期的能力を維持しながら信頼性を克服する,シンプルで効果的な方法であるResiPを考案した。
論文 参考訳(メタデータ) (2024-07-23T17:44:54Z) - Training Chain-of-Thought via Latent-Variable Inference [30.21067593018967]
大規模言語モデル(LLM)は、チェーン・オブ・シンクレットのプロンプトを使って解答ステップを実行するように指示されたときに、より正確かつ解釈可能な問題を解決する。
CoTと教師付きチューニングを組み合わせるには、正しい回答だけでなく、それらの答えにつながる詳細な根拠の監督が必要である。
そこで本研究では,CoTプロンプトを用いて正しい回答を生成することで,電子対数類似度を最大化するための微調整戦略を提案する。
論文 参考訳(メタデータ) (2023-11-28T17:47:32Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - Rapid Adaptation in Online Continual Learning: Are We Evaluating It
Right? [135.71855998537347]
オンライン連続学習(OCL)アルゴリズムの適応性を評価するための一般的な手法を,オンライン精度の指標を用いて再検討する。
空白のブラインド分類器でさえ、非現実的に高いオンライン精度を達成できるため、この指標は信頼できない。
既存のOCLアルゴリズムは、オンラインの精度も高いが、有用な情報の保持は不十分である。
論文 参考訳(メタデータ) (2023-05-16T08:29:33Z) - Fine-grained Retrieval Prompt Tuning [149.9071858259279]
微粒な検索プロンプトチューニングは, サンプルプロンプトと特徴適応の観点から, きめの細かい検索タスクを実行するために, 凍結した事前学習モデルを操る。
学習可能なパラメータが少ないFRPTは、広く使われている3つの細粒度データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-29T04:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。