論文の概要: SPEC: Summary Preference Decomposition for Low-Resource Abstractive
Summarization
- arxiv url: http://arxiv.org/abs/2303.14011v1
- Date: Fri, 24 Mar 2023 14:07:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:21:04.563455
- Title: SPEC: Summary Preference Decomposition for Low-Resource Abstractive
Summarization
- Title(参考訳): SPEC:低リソース抽象要約のための概要選好分解
- Authors: Yi-Syuan Chen, Yun-Zhu Song, Hong-Han Shuai
- Abstract要約: 本稿では,ソースコーパスからターゲットコーパスへ数発の学習プロセスを転送するフレームワークを提案する。
提案手法は, ROUGE-1/2/Lを10例, 100例で平均改良した6種類のコーパスに対して, 30.11%/33.95%/27.51%, 26.74%/31.14%/24.48%の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 21.037841262371355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural abstractive summarization has been widely studied and achieved great
success with large-scale corpora. However, the considerable cost of annotating
data motivates the need for learning strategies under low-resource settings. In
this paper, we investigate the problems of learning summarizers with only few
examples and propose corresponding methods for improvements. First, typical
transfer learning methods are prone to be affected by data properties and
learning objectives in the pretext tasks. Therefore, based on pretrained
language models, we further present a meta learning framework to transfer
few-shot learning processes from source corpora to the target corpus. Second,
previous methods learn from training examples without decomposing the content
and preference. The generated summaries could therefore be constrained by the
preference bias in the training set, especially under low-resource settings. As
such, we propose decomposing the contents and preferences during learning
through the parameter modulation, which enables control over preferences during
inference. Third, given a target application, specifying required preferences
could be non-trivial because the preferences may be difficult to derive through
observations. Therefore, we propose a novel decoding method to automatically
estimate suitable preferences and generate corresponding summary candidates
from the few training examples. Extensive experiments demonstrate that our
methods achieve state-of-the-art performance on six diverse corpora with
30.11%/33.95%/27.51% and 26.74%/31.14%/24.48% average improvements on
ROUGE-1/2/L under 10- and 100-example settings.
- Abstract(参考訳): 神経抽象的要約は広く研究され、大規模コーパスで大きな成功を収めた。
しかし、データアノテーションのかなりのコストは、低リソース環境下での学習戦略の必要性を動機付けている。
本稿では,ごく少数の例で要約学習の問題点を考察し,改善のための対応手法を提案する。
第一に、典型的な転送学習手法は、プリテキストタスクにおけるデータ特性や学習目標に影響を受けやすい。
そこで,事前訓練された言語モデルに基づいて,ソースコーパスからターゲットコーパスへ数発の学習プロセスを伝達するメタラーニングフレームワークを提案する。
第2に、事前の方法は、内容や好みを分解することなく、トレーニング例から学習する。
したがって、生成された要約はトレーニングセットの選好バイアス、特に低リソース設定によって制約される可能性がある。
そこで本研究では,パラメータ変調を通じて学習中の内容と嗜好を分解し,推論中の嗜好を制御できるようにする。
第三に、対象のアプリケーションがある場合、要求される選好を特定することは、観察を通して選好を引き出すのが難しいため、自明ではない可能性がある。
そこで本研究では,適切な好みを自動的に推定し,少数の学習例から対応する要約候補を生成する新しい復号法を提案する。
実験により, ROUGE-1/2/Lを10時間, 100時間で平均改善した6種類のコーパスにおいて, 30.11%/33.95%/27.51%, 26.74%/31.14%/24.48%の精度向上が得られた。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - CorDA: Context-Oriented Decomposition Adaptation of Large Language Models [101.81127587760831]
現在のパラメータ効率の高い微調整手法は、学習すべき下流タスクのコンテキストや維持すべき重要な知識のコンテキストを考慮せずに、アダプタを構築する。
我々は、下流タスクや世界知識のコンテキストを指向した重み分解から学習可能なアダプタを構築するコンテキスト指向の分解適応手法であるCorDAを提案する。
我々の知識保存適応は、微調整作業においてLoRAよりも優れた性能を達成するだけでなく、世界の知識の分解を軽減します。
論文 参考訳(メタデータ) (2024-06-07T19:10:35Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - An Analysis of Initial Training Strategies for Exemplar-Free
Class-Incremental Learning [36.619804184427245]
CIL(Class-Incremental Learning)は、データストリームから分類モデルを構築することを目的としている。
破滅的な忘れ物のため、過去のクラスの例を保存できない場合、CILは特に困難である。
大量のデータに対する自己管理的な方法で事前訓練されたモデルの使用は、最近勢いを増している。
論文 参考訳(メタデータ) (2023-08-22T14:06:40Z) - Revisiting Sample Size Determination in Natural Language Understanding [18.637079595450366]
特定のモデルのパフォーマンスを達成するために、どれだけのデータポイントをラベル付けする必要があるかを正確に知ることは、アノテーションの全体的な予算を削減するための有益なステップである。
我々は,少量のトレーニングサンプルに基づいて,達成可能なモデルの最大性能を予測するための,シンプルで効果的な手法を導出した。
論文 参考訳(メタデータ) (2023-07-01T16:08:52Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Optimizing Active Learning for Low Annotation Budgets [6.753808772846254]
ディープラーニングでは、アクティブな学習は通常、微調整によって連続した深層モデルを更新する反復的なプロセスとして実装される。
移行学習にインスパイアされたアプローチを用いてこの問題に対処する。
本稿では,ALプロセスの反復性を利用してより堅牢なサンプルを抽出する新しい取得関数を提案する。
論文 参考訳(メタデータ) (2022-01-18T18:53:10Z) - Making Pre-trained Language Models Better Few-shot Learners [11.90626040104822]
最近のGPT-3モデルは、自然言語プロンプトといくつかのタスクデモンストレーションを入力コンテキストとして活用することで、驚くべき数ショットパフォーマンスを実現します。
これらの知見に触発されて,より実用的なシナリオで,微調整が計算効率のよい小型言語モデルを用いて,小数点学習の研究を行った。
LM-BFF - 少数の注釈付き例で、言語モデルの微調整のためのシンプルで補完的な技術のスイート - 言語モデルのより良い少数ショット微調整を提示します。
論文 参考訳(メタデータ) (2020-12-31T17:21:26Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。