論文の概要: Countering Language Drift with Seeded Iterated Learning
- arxiv url: http://arxiv.org/abs/2003.12694v3
- Date: Mon, 24 Aug 2020 19:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:18:55.099993
- Title: Countering Language Drift with Seeded Iterated Learning
- Title(参考訳): シード反復学習による言語ドリフト対策
- Authors: Yuchen Lu, Soumye Singhal, Florian Strub, Olivier Pietquin, Aaron
Courville
- Abstract要約: シード反復学習 (Seeded Iterated Learning, SIL) と呼ばれる言語ドリフトに対する汎用的アプローチを提案する。
SILは外部の構文制約や意味知識を必要としないため、タスクに依存しない微調整プロトコルである。
おもちゃをセットしたLewis GameでSILを評価し,それを自然言語で翻訳ゲームにスケールアップする。
- 参考スコア(独自算出の注目度): 30.787109897408488
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Pretraining on human corpus and then finetuning in a simulator has become a
standard pipeline for training a goal-oriented dialogue agent. Nevertheless, as
soon as the agents are finetuned to maximize task completion, they suffer from
the so-called language drift phenomenon: they slowly lose syntactic and
semantic properties of language as they only focus on solving the task. In this
paper, we propose a generic approach to counter language drift called Seeded
iterated learning (SIL). We periodically refine a pretrained student agent by
imitating data sampled from a newly generated teacher agent. At each time step,
the teacher is created by copying the student agent, before being finetuned to
maximize task completion. SIL does not require external syntactic constraint
nor semantic knowledge, making it a valuable task-agnostic finetuning protocol.
We evaluate SIL in a toy-setting Lewis Game, and then scale it up to the
translation game with natural language. In both settings, SIL helps counter
language drift as well as it improves the task completion compared to
baselines.
- Abstract(参考訳): ヒューマンコーパスの事前トレーニングとシミュレータでの微調整は、目標指向の対話エージェントをトレーニングするための標準的なパイプラインとなっている。
それにもかかわらず、エージェントがタスク完了を最大化するために微調整されると、それらはいわゆる言語ドリフト現象に苦しむ。
本稿では,seed iterated learning (sil) と呼ばれる,逆言語ドリフトに対する汎用的アプローチを提案する。
新たに作成した教師エージェントから採取したデータを模倣して,事前学習した学生エージェントを定期的に精製する。
各時間ステップで、教師は学生エージェントをコピーして作成し、タスク完了を最大化するために微調整される。
SILは外部の構文制約や意味知識を必要としないため、タスクに依存しない微調整プロトコルである。
おもちゃをセットしたLewis GameでSILを評価し,それを自然言語で翻訳ゲームにスケールアップする。
どちらの設定でも、SILは言語のドリフトに対抗するだけでなく、ベースラインよりもタスクの完了を改善する。
関連論文リスト
- No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - Pre-Trained Language-Meaning Models for Multilingual Parsing and
Generation [14.309869321407522]
談話表現構造(DRS)に基づく多言語事前学習言語意味モデルを導入する。
DRSは言語中立であるため、非英語タスクの性能向上のために言語間移動学習が採用されている。
自動評価の結果,本手法は多言語DSS解析とDSS-to-text生成の両タスクにおいて,最高の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T19:00:33Z) - Learning Natural Language Generation from Scratch [25.984828046001013]
本稿では,TRUncated ReinForcement Learning for Language (TrufLL)を紹介する。
強化学習(RL)のみを用いて、条件付き言語モデルをゼロから訓練する独自のap-proachである。
論文 参考訳(メタデータ) (2021-09-20T08:46:51Z) - Multitasking Inhibits Semantic Drift [46.71462510028727]
潜在言語政策(LLP)における学習のダイナミクスについて検討する。
LLPは長距離強化学習の課題を解くことができる。
これまでの研究では、LPPトレーニングは意味的ドリフトの傾向が見られた。
論文 参考訳(メタデータ) (2021-04-15T03:42:17Z) - Verb Knowledge Injection for Multilingual Event Processing [50.27826310460763]
動詞のセマンティック・シンタクティックな振る舞いに関する明示的な情報を注入することでLMプリトレーニングトランスフォーマーの性能が向上するかどうかを検討する。
まず,動詞知識の注入が英語イベント抽出のパフォーマンス向上につながることを示す。
次に、他の言語でのイベント抽出のための動詞アダプタの有用性を探ります。
論文 参考訳(メタデータ) (2020-12-31T03:24:34Z) - Emergent Communication Pretraining for Few-Shot Machine Translation [66.48990742411033]
我々は、参照ゲームからの創発的コミュニケーションを介してニューラルネットワークを事前訓練する。
私たちの重要な前提は、実世界の環境の粗悪な近似として、画像に基づくコミュニケーションを基盤にすることで、帰納的に自然言語学習のモデルに偏りが生じる、ということです。
論文 参考訳(メタデータ) (2020-11-02T10:57:53Z) - Supervised Seeded Iterated Learning for Interactive Language Learning [30.787109897408488]
この現象に部分的に対処する2つの一般的な方法:S2P(Supervised Selfplay)とSIL(Seeded Iterated Learning)
まず, 後期訓練の崩壊, 人体評価における負の確率の低下など, それぞれの弱点を強調した。
次に,言語ドリフト翻訳ゲームにおけるアルゴの有効性を示す。
論文 参考訳(メタデータ) (2020-10-06T19:09:02Z) - Exploring Fine-tuning Techniques for Pre-trained Cross-lingual Models
via Continual Learning [74.25168207651376]
訓練済みの言語モデルから下流の言語間タスクへの微調整は、有望な結果を示している。
ダウンストリームタスクに微調整する場合、継続学習を活用して、事前学習したモデルの言語間能力を維持する。
提案手法は、ゼロショット言語間タグ付けや名前付きエンティティ認識タスクにおいて、他の微調整ベースラインよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2020-04-29T14:07:18Z) - Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less
Forgetting [66.45372974713189]
本稿では,マルチタスク学習の概念を取り入れたリコール・アンド・ラーニング機構を提案し,事前学習タスクと下流タスクを共同で学習する。
実験により,本手法はGLUEベンチマークの最先端性能を実現することが示された。
我々はオープンソースのRecAdamを提供し、提案されたメカニズムをAdamに統合し、NLPコミュニティを施設化する。
論文 参考訳(メタデータ) (2020-04-27T08:59:57Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。