論文の概要: Utilizing Excess Resources in Training Neural Networks
- arxiv url: http://arxiv.org/abs/2207.05532v1
- Date: Tue, 12 Jul 2022 13:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 13:21:29.544836
- Title: Utilizing Excess Resources in Training Neural Networks
- Title(参考訳): ニューラルネットワーク訓練における余剰資源の利用
- Authors: Amit Henig and Raja Giryes
- Abstract要約: カーネルフィルタリング方式でフィルタリングレイヤの線形カスケードを実装することにより、トレーニング済みアーキテクチャが不要に深くなるのを防ぐことができる。
これにより、ほぼすべてのネットワークアーキテクチャで私たちのアプローチを使用でき、テスト時間内にフィルタリングレイヤを単一のレイヤに組み合わせることができます。
教師あり学習における様々なネットワークモデルとデータセットにおけるKFLOの利点を実証する。
- 参考スコア(独自算出の注目度): 41.07083436560303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we suggest Kernel Filtering Linear Overparameterization (KFLO),
where a linear cascade of filtering layers is used during training to improve
network performance in test time. We implement this cascade in a kernel
filtering fashion, which prevents the trained architecture from becoming
unnecessarily deeper. This also allows using our approach with almost any
network architecture and let combining the filtering layers into a single layer
in test time. Thus, our approach does not add computational complexity during
inference. We demonstrate the advantage of KFLO on various network models and
datasets in supervised learning.
- Abstract(参考訳): 本研究では,kflo(kernel filter linear overparameterization)を提案する。
このカスケードをカーネルフィルタリング方式で実装することで、トレーニング済みアーキテクチャが不要に深くなるのを防ぐことができる。
これにより、ほぼすべてのネットワークアーキテクチャでアプローチを使用でき、テスト時間内にフィルタリングレイヤを単一のレイヤに組み合わせることができます。
したがって,本手法は推論中に計算複雑性を増すものではない。
教師あり学習における様々なネットワークモデルとデータセットにおけるKFLOの利点を実証する。
関連論文リスト
- Advanced deep architecture pruning using single filter performance [0.0]
ニューラルネットワークのパラメータと構造を解析することで、推論時の計算複雑性、エネルギー消費、レイテンシを低減することができる。
ここでは、この理解が、適用されたフィルタクラスタ接続による全体的な精度に影響を与えることなく、ディープアーキテクチャの畳み込み層を高度に希薄にする方法を実証する。
論文 参考訳(メタデータ) (2025-01-22T13:40:43Z) - The Master Key Filters Hypothesis: Deep Filters Are General [51.900488744931785]
畳み込みニューラルネットワーク(CNN)フィルタはより深い層に特化している。
ImageNetで訓練した深度分離可能なCNN(DS-CNN)におけるクラスタリング可能な繰り返しパターンの最近の観察は、この論文を動機づけた。
DS-CNNの解析により,深層フィルタの一般性は維持され,クラス固有のフィルタへの移行が期待されていることに矛盾することが明らかとなった。
論文 参考訳(メタデータ) (2024-12-21T20:04:23Z) - Local Kernel Renormalization as a mechanism for feature learning in
overparametrized Convolutional Neural Networks [0.0]
実験的な証拠は、無限幅限界における完全連結ニューラルネットワークが最終的に有限幅限界よりも優れていることを示している。
畳み込み層を持つ最先端アーキテクチャは、有限幅構造において最適な性能を達成する。
有限幅FCネットワークの一般化性能は,ガウス事前選択に適した無限幅ネットワークで得られることを示す。
論文 参考訳(メタデータ) (2023-07-21T17:22:04Z) - Learning Sparse Neural Networks with Identity Layers [33.11654855515443]
本稿では,ネットワーク空間と層間特徴類似性の関係について検討する。
CKA-SRと呼ばれるスパースネットワークトレーニングのためのプラグアンドプレイCKAベースのスポーラリティ正規化を提案する。
CKA-SRは、複数のState-Of-The-Artスパース訓練法の性能を一貫して改善する。
論文 参考訳(メタデータ) (2023-07-14T14:58:44Z) - Efficient Implementation of a Multi-Layer Gradient-Free Online-Trainable
Spiking Neural Network on FPGA [0.31498833540989407]
ODESAは、グラデーションを使わずに、エンド・ツー・エンドの多層オンラインローカル教師ありトレーニングを行う最初のネットワークである。
本研究は,ネットワークアーキテクチャと重みとしきい値のオンライントレーニングを,大規模ハードウェア上で効率的に実施可能であることを示す。
論文 参考訳(メタデータ) (2023-05-31T00:34:15Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Kernelized Classification in Deep Networks [49.47339560731506]
本稿では,ディープネットワークのためのカーネル分類層を提案する。
訓練中のSoftmaxクロスエントロピー損失関数のカーネルトリックを用いて非線形分類層を提唱する。
提案する非線形分類層は,複数のデータセットやタスクに対して有用であることを示す。
論文 参考訳(メタデータ) (2020-12-08T21:43:19Z) - Dependency Aware Filter Pruning [74.69495455411987]
重要でないフィルタを割ることは、推論コストを軽減するための効率的な方法である。
以前の作業は、その重み基準やそれに対応するバッチノームスケーリング要因に従ってフィルタをプルークする。
所望の空間性を達成するために,空間性誘導正規化を動的に制御する機構を提案する。
論文 参考訳(メタデータ) (2020-05-06T07:41:22Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。