論文の概要: Revisiting the Weaknesses of Reinforcement Learning for Neural Machine
Translation
- arxiv url: http://arxiv.org/abs/2106.08942v1
- Date: Wed, 16 Jun 2021 16:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:29:36.250833
- Title: Revisiting the Weaknesses of Reinforcement Learning for Neural Machine
Translation
- Title(参考訳): ニューラルネットワーク翻訳における強化学習の弱点の再検討
- Authors: Samuel Kiegeland and Julia Kreutzer
- Abstract要約: 政策勾配アルゴリズムは、NLPで広く採用されているが、最近は批判の対象となり、NMTに対する適合性を疑っている。
本稿では,これらの主張を再考し,より広範な構成下で研究する。
ドメイン内およびドメイン間適応に関する実験は、探索と報酬スケーリングの重要性を明らかにし、これらの主張に実証的な反証を提供する。
- 参考スコア(独自算出の注目度): 6.996167229934594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Policy gradient algorithms have found wide adoption in NLP, but have recently
become subject to criticism, doubting their suitability for NMT. Choshen et al.
(2020) identify multiple weaknesses and suspect that their success is
determined by the shape of output distributions rather than the reward. In this
paper, we revisit these claims and study them under a wider range of
configurations. Our experiments on in-domain and cross-domain adaptation reveal
the importance of exploration and reward scaling, and provide empirical
counter-evidence to these claims.
- Abstract(参考訳): 政策勾配アルゴリズムはNLPで広く採用されているが、最近批判の対象となり、NMTに対する適合性を疑っている。
Choshenら。
(2020年)複数の弱点を特定し、その成功は報酬ではなく出力分布の形によって決まると疑う。
本稿では,これらの主張を再考し,より広範な構成下で研究する。
ドメイン内適応とクロスドメイン適応に関する実験は,探索と報酬のスケーリングの重要性を明らかにし,これらの主張に対する実証的な反証を与える。
関連論文リスト
- Rethinking State Disentanglement in Causal Reinforcement Learning [78.12976579620165]
因果性は、根底にある状態が識別可能性によって一意に回復できることを保証するための厳密な理論的支援を提供する。
我々はこの研究ラインを再考し、RL固有のコンテキストを取り入れることで、潜在状態に対する以前の識別可能性分析における不要な仮定を低減できることを示した。
本稿では, 従来手法の複雑な構造制約を, 遷移と報酬保存の2つの簡単な制約に置き換えることにより, 一般に部分的に観測可能なマルコフ決定過程(POMDP)を提案する。
論文 参考訳(メタデータ) (2024-08-24T06:49:13Z) - CNN-DRL with Shuffled Features in Finance [0.0]
深層強化学習における畳み込みニューラルネットワークエージェントの財務データへの適用により、報酬が強化された。
特徴ベクトルに特定の置換を適用したことにより、CNN行列を生成し、より関連する特徴を近接して戦略的に配置する。
論文 参考訳(メタデータ) (2024-01-16T14:46:28Z) - Polynomially Over-Parameterized Convolutional Neural Networks Contain
Structured Strong Winning Lottery Tickets [4.020829863982153]
十分に小さなネットワークを近似できる構造化ニューラルワークの存在を実証する。
この結果は、Strong Lottery Ticket仮説の周りの最初の部分指数境界を与える。
論文 参考訳(メタデータ) (2023-11-16T12:38:45Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Rewarding Episodic Visitation Discrepancy for Exploration in
Reinforcement Learning [64.8463574294237]
本稿では,効率的かつ定量的な探索手法として,Rewarding Episodic Visitation Discrepancy (REVD)を提案する。
REVDは、R'enyiの発散に基づくエピソード間の訪問不一致を評価することによって、本質的な報酬を提供する。
PyBullet Robotics EnvironmentsとAtariゲームでテストされている。
論文 参考訳(メタデータ) (2022-09-19T08:42:46Z) - CARE: Certifiably Robust Learning with Reasoning via Variational
Inference [26.210129662748862]
推論パイプライン(CARE)を用いた頑健な学習を提案する。
CAREは、最先端のベースラインに比べて、かなり高い信頼性のロバスト性を達成する。
さらに,CAREの実証的ロバスト性および知識統合の有効性を示すために,異なるアブレーション研究を行った。
論文 参考訳(メタデータ) (2022-09-12T07:15:52Z) - Guarantees for Epsilon-Greedy Reinforcement Learning with Function
Approximation [69.1524391595912]
エプシロングレーディ、ソフトマックス、ガウシアンノイズといった神秘的な探索政策は、いくつかの強化学習タスクにおいて効率的に探索することができない。
本稿では,このような政策を理論的に分析し,筋電図探索による強化学習のための最初の後悔とサンプル複雑度境界を提供する。
論文 参考訳(メタデータ) (2022-06-19T14:44:40Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - No-Regret Reinforcement Learning with Heavy-Tailed Rewards [11.715649997214125]
重み付き報酬の学習の難しさが遷移確率の学習の難しさを左右することを示した。
我々のアルゴリズムは自然に深層強化学習アプリケーションに一般化する。
全てのアルゴリズムは、合成MDPと標準RLベンチマークの両方でベースラインを上回ります。
論文 参考訳(メタデータ) (2021-02-25T10:25:57Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。