論文の概要: Adaptive Neural Networks Using Residual Fitting
- arxiv url: http://arxiv.org/abs/2301.05744v1
- Date: Fri, 13 Jan 2023 19:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 19:11:07.047924
- Title: Adaptive Neural Networks Using Residual Fitting
- Title(参考訳): 残差フィッティングを用いた適応ニューラルネットワーク
- Authors: Noah Ford, John Winder, Josh McClellan
- Abstract要約: 本稿では,ネットワークの残差における説明可能なエラーを探索し,十分なエラーが検出された場合,ネットワークを拡大するネットワーク成長手法を提案する。
これらのタスクの中で、成長するネットワークは、成長しない小さなネットワークよりも優れたパフォーマンスを達成することができる。
- 参考スコア(独自算出の注目度): 2.546014024559691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current methods for estimating the required neural-network size for a given
problem class have focused on methods that can be computationally intensive,
such as neural-architecture search and pruning. In contrast, methods that add
capacity to neural networks as needed may provide similar results to
architecture search and pruning, but do not require as much computation to find
an appropriate network size. Here, we present a network-growth method that
searches for explainable error in the network's residuals and grows the network
if sufficient error is detected. We demonstrate this method using examples from
classification, imitation learning, and reinforcement learning. Within these
tasks, the growing network can often achieve better performance than small
networks that do not grow, and similar performance to networks that begin much
larger.
- Abstract(参考訳): 与えられた問題クラスに必要なニューラルネットワークサイズを推定するための現在の手法は、ニューラルアーキテクチャ探索やプルーニングのような計算集約的な手法に焦点を当てている。
対照的に、必要に応じてニューラルネットワークにキャパシティを追加するメソッドは、アーキテクチャ検索やプラニングと同じような結果を与えるが、適切なネットワークサイズを見つけるために計算量を必要としない。
本稿では,ネットワークの残差における説明可能なエラーを探索し,十分なエラーが検出できればネットワークを拡大するネットワーク成長手法を提案する。
本手法は,分類,模倣学習,強化学習の例を用いて実証する。
これらのタスクの中で、成長中のネットワークは、成長しない小さなネットワークよりも優れたパフォーマンスを達成し、はるかに大きなネットワークと同じようなパフォーマンスを得られる。
関連論文リスト
- Learning Morphisms with Gauss-Newton Approximation for Growing Networks [43.998746572276076]
ニューラル・アーキテクチャ・サーチ(NAS)の一般的な手法は、ネットワーク・アソシエーション(英語版)と呼ばれるネットワークのアーキテクチャへの小さな局所的な変更を通じてネットワークを成長させることに基づいている。
本稿では、損失関数のガウス・ニュートン近似を用いてネットワーク成長のためのNAS法を提案し、ネットワークの候補型を効率的に学習し評価する。
論文 参考訳(メタデータ) (2024-11-07T01:12:42Z) - Efficient and Flexible Method for Reducing Moderate-size Deep Neural Networks with Condensation [36.41451383422967]
科学的応用において、ニューラルネットワークのスケールは概して中規模であり、主に推論の速度を保証する。
既存の研究によると、ニューラルネットワークの強力な能力は、主に非線形性に起因する。
本稿では,本手法の有効性を検証するための凝縮低減アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T06:53:40Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Dimensionality Reduction in Deep Learning via Kronecker Multi-layer
Architectures [4.836352379142503]
Kronecker積分解の高速行列乗算に基づく新しいディープラーニングアーキテクチャを提案する。
このアーキテクチャにより、ニューラルネットワークのトレーニングと実装が可能になり、計算時間とリソースが大幅に削減されることを示す。
論文 参考訳(メタデータ) (2022-04-08T19:54:52Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Sparsity in Deep Learning: Pruning and growth for efficient inference
and training in neural networks [78.47459801017959]
Sparsityは、モバイル機器に適合する通常のネットワークのメモリフットプリントを減らすことができる。
ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。
論文 参考訳(メタデータ) (2021-01-31T22:48:50Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - It's Hard for Neural Networks To Learn the Game of Life [4.061135251278187]
最近の研究では、ニューラルネットワークは、ソリューションに迅速に収束する"ロテリチケット"のラッキーな初期重みに依存していることが示唆されている。
本研究では,2次元セル・オートマトン・コンウェイのゲーム・オブ・ライフのn段階を予測するために訓練された小さな畳み込みネットワークについて検討する。
このタスクでトレーニングされたこのアーキテクチャのネットワークは、ほとんど収束しない。
論文 参考訳(メタデータ) (2020-09-03T00:47:08Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Differentiable Sparsification for Deep Neural Networks [0.0]
本稿では,ディープニューラルネットワークのための完全微分可能なスペーシフィケーション手法を提案する。
提案手法は,ネットワークのスパース化構造と重み付けの両方をエンドツーエンドに学習することができる。
私たちの知る限りでは、これが最初の完全に差別化可能なスパーシフィケーション手法である。
論文 参考訳(メタデータ) (2019-10-08T03:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。