論文の概要: Optimizing Neural Networks through Activation Function Discovery and
Automatic Weight Initialization
- arxiv url: http://arxiv.org/abs/2304.03374v1
- Date: Thu, 6 Apr 2023 21:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 13:38:52.779575
- Title: Optimizing Neural Networks through Activation Function Discovery and
Automatic Weight Initialization
- Title(参考訳): 活性化関数発見と自動重み初期化によるニューラルネットワークの最適化
- Authors: Garrett Bingham
- Abstract要約: より強力なアクティベーション関数を 発見する技術を紹介します
ニューラルネットワークの最適化に関する新たな視点を提供する。
従って、論文は将来的に完全に自動化された機械学習へと具体的な進展をもたらす。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated machine learning (AutoML) methods improve upon existing models by
optimizing various aspects of their design. While present methods focus on
hyperparameters and neural network topologies, other aspects of neural network
design can be optimized as well. To further the state of the art in AutoML,
this dissertation introduces techniques for discovering more powerful
activation functions and establishing more robust weight initialization for
neural networks. These contributions improve performance, but also provide new
perspectives on neural network optimization. First, the dissertation
demonstrates that discovering solutions specialized to specific architectures
and tasks gives better performance than reusing general approaches. Second, it
shows that jointly optimizing different components of neural networks is
synergistic, and results in better performance than optimizing individual
components alone. Third, it demonstrates that learned representations are
easier to optimize than hard-coded ones, creating further opportunities for
AutoML. The dissertation thus makes concrete progress towards fully automatic
machine learning in the future.
- Abstract(参考訳): 自動機械学習(automl)メソッドは、設計のさまざまな側面を最適化することで、既存のモデルを改善する。
本稿では,ハイパーパラメータとニューラルネットワークトポロジに着目し,ニューラルネットワーク設計の他の側面も最適化できる。
この論文では、より強力なアクティベーション関数を発見し、ニューラルネットワークのより堅牢なウェイト初期化を確立する技術が導入されている。
これらの貢献によってパフォーマンスは向上するが、ニューラルネットワークの最適化に関する新たな視点も提供される。
まず、論文は特定のアーキテクチャやタスクに特化したソリューションの発見が一般的なアプローチを再利用するよりも優れたパフォーマンスをもたらすことを示している。
第二に、ニューラルネットワークの異なるコンポーネントを共同最適化することは相乗的であり、個々のコンポーネントのみを最適化するよりもパフォーマンスが向上することを示している。
第3に、学習表現はハードコード表現よりも最適化が容易であることを示し、automlのさらなる機会を生み出している。
この論文は、将来完全自動機械学習への具体的な進歩をもたらす。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Physics Informed Piecewise Linear Neural Networks for Process
Optimization [0.0]
ニューラルネットワークモデルに埋め込まれた最適化問題に対して,物理情報を用いた線形ニューラルネットワークモデルの更新が提案されている。
すべてのケースにおいて、物理インフォームドトレーニングニューラルネットワークに基づく最適結果は、大域的最適性に近い。
論文 参考訳(メタデータ) (2023-02-02T10:14:54Z) - Transformer-Based Learned Optimization [37.84626515073609]
ニューラルネットワークを用いて計算の更新ステップを表現できる学習最適化手法を提案する。
私たちの革新は、古典的なBFGSアルゴリズムにインスパイアされた、新しいニューラルネットワークアーキテクチャです。
最適化アルゴリズムの評価に伝統的に用いられてきた目的関数からなるベンチマークにおいて,提案手法の利点を実証する。
論文 参考訳(メタデータ) (2022-12-02T09:47:08Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Position-wise optimizer: A nature-inspired optimization algorithm [0.0]
生物の神経可塑性を模倣する、自然に着想を得た新しい最適化アルゴリズムが導入された。
モデルは3つのデータセットでテストされ、結果は勾配降下最適化と比較される。
論文 参考訳(メタデータ) (2022-04-11T15:30:52Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - Can we learn gradients by Hamiltonian Neural Networks? [68.8204255655161]
本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:35:10Z) - Convolution Neural Network Hyperparameter Optimization Using Simplified
Swarm Optimization [2.322689362836168]
畳み込みニューラルネットワーク(CNN)はコンピュータビジョンで広く使われている。
パフォーマンスが向上したネットワークアーキテクチャを見つけるのは容易ではない。
論文 参考訳(メタデータ) (2021-03-06T00:23:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。