論文の概要: Controlled Descent Training
- arxiv url: http://arxiv.org/abs/2303.09216v1
- Date: Thu, 16 Mar 2023 10:45:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:59:28.136453
- Title: Controlled Descent Training
- Title(参考訳): 制御降下訓練
- Authors: Viktor Andersson, Bal\'azs Varga, Vincent Szolnoky, Andreas Syr\'en,
Rebecka J\"ornsten, Bal\'azs Kulcs\'ar
- Abstract要約: 最適制御理論により,新しいモデルベースニューラルネットワーク(ANN)トレーニング手法を開発した。
この方法は、トレーニング損失収束を確実に保証し、トレーニング収束率を向上させるために、トレーニングラベルを増強する。
本手法の適用性は, 標準回帰問題と分類問題において実証される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, a novel and model-based artificial neural network (ANN)
training method is developed supported by optimal control theory. The method
augments training labels in order to robustly guarantee training loss
convergence and improve training convergence rate. Dynamic label augmentation
is proposed within the framework of gradient descent training where the
convergence of training loss is controlled. First, we capture the training
behavior with the help of empirical Neural Tangent Kernels (NTK) and borrow
tools from systems and control theory to analyze both the local and global
training dynamics (e.g. stability, reachability). Second, we propose to
dynamically alter the gradient descent training mechanism via fictitious labels
as control inputs and an optimal state feedback policy. In this way, we enforce
locally $\mathcal{H}_2$ optimal and convergent training behavior. The novel
algorithm, \textit{Controlled Descent Training} (CDT), guarantees local
convergence. CDT unleashes new potentials in the analysis, interpretation, and
design of ANN architectures. The applicability of the method is demonstrated on
standard regression and classification problems.
- Abstract(参考訳): 本研究では、最適制御理論により、新しいモデルベースニューラルネットワーク(ANN)トレーニング手法を開発した。
この方法は、トレーニング損失収束を堅牢に保証し、トレーニング収束率を向上させるために、トレーニングラベルを補強する。
学習損失の収束が制御される勾配降下訓練の枠組みにおいて動的ラベル拡張が提案されている。
まず、経験的ニューラルネットワークカーネル(NTK)の助けを借りてトレーニング行動を捉え、システムと制御理論からツールを借りて、局所的およびグローバルなトレーニングダイナミクス(安定性、到達可能性など)を解析する。
第2に,制御入力と最適状態フィードバックポリシーとして,仮想ラベルを用いて勾配降下訓練機構を動的に変更することを提案する。
このようにして、局所的に$\mathcal{H}_2$Optimative and convergent training behaviorを実行する。
新たなアルゴリズムである \textit{Controlled Descent Training} (CDT) は局所収束を保証する。
CDTは、ANNアーキテクチャの分析、解釈、設計において、新たな可能性をもたらす。
本手法の適用性は, 標準回帰および分類問題において実証される。
関連論文リスト
- Adaptive Class Emergence Training: Enhancing Neural Network Stability and Generalization through Progressive Target Evolution [0.0]
分類問題におけるニューラルネットワークの新しいトレーニング手法を提案する。
我々は、トレーニングプロセスを通して、ヌルベクトルから1ホットの符号化ベクターへのターゲット出力を進化させる。
この段階的な遷移により、ネットワークは分類タスクの複雑さの増大によりスムーズに適応できる。
論文 参考訳(メタデータ) (2024-09-04T03:25:48Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Harnessing Orthogonality to Train Low-Rank Neural Networks [0.07538606213726905]
本研究は,ニューラルネットワークの学習力学を,トレーニングを通じて重みの特異値分解(SVD)を分析することによって研究する。
本稿では,ニューラルネットワークの直交性を利用した新しいトレーニング手法であるOrthogonality-Informed Adaptive Low-Rank(OIALR)トレーニングを紹介する。
論文 参考訳(メタデータ) (2024-01-16T17:07:22Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Optimization-Derived Learning with Essential Convergence Analysis of
Training and Hyper-training [52.39882976848064]
固定点反復に基づく一般化クラスノセルスキーマンスキースキーム(GKM)を基本ODLモジュールとして設計する。
GKMスキームでは、最適トレーニングとハイパートレーニング変数を同時に解くために、バイレベルメタ最適化(BMO)アルゴリズムフレームワークを構築している。
論文 参考訳(メタデータ) (2022-06-16T01:50:25Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Learning in Feedback-driven Recurrent Spiking Neural Networks using
full-FORCE Training [4.124948554183487]
本稿では,トレーニング中にのみ第2のネットワークを導入するRSNNの教師付きトレーニング手順を提案する。
提案したトレーニング手順は、リカレント層とリードアウト層の両方のターゲットを生成することで構成される。
本研究では,8つの力学系をモデル化するためのフルFORCEトレーニング手法の性能向上とノイズ堅牢性を示す。
論文 参考訳(メタデータ) (2022-05-26T19:01:19Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。