論文の概要: Variance-Aware Weight Initialization for Point Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2112.03777v1
- Date: Tue, 7 Dec 2021 15:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 14:33:02.582578
- Title: Variance-Aware Weight Initialization for Point Convolutional Neural
Networks
- Title(参考訳): 点畳み込みニューラルネットワークの可変重み初期化
- Authors: Pedro Hermosilla and Michael Schelling and Tobias Ritschel and Timo
Ropinski
- Abstract要約: 連続的畳み込みの多さを統一する枠組みを提案する。
このフレームワークは、類似性があり、場合によってはパフォーマンスが向上しながら、バッチの正規化を回避できることを示す。
- 参考スコア(独自算出の注目度): 23.46612653627991
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Appropriate weight initialization has been of key importance to successfully
train neural networks. Recently, batch normalization has diminished the role of
weight initialization by simply normalizing each layer based on batch
statistics. Unfortunately, batch normalization has several drawbacks when
applied to small batch sizes, as they are required to cope with memory
limitations when learning on point clouds. While well-founded weight
initialization strategies can render batch normalization unnecessary and thus
avoid these drawbacks, no such approaches have been proposed for point
convolutional networks. To fill this gap, we propose a framework to unify the
multitude of continuous convolutions. This enables our main contribution,
variance-aware weight initialization. We show that this initialization can
avoid batch normalization while achieving similar and, in some cases, better
performance.
- Abstract(参考訳): ニューラルネットワークのトレーニングに成功するためには,適切な重み初期化が重要になっている。
近年,バッチ統計に基づく各レイヤの正規化によって,バッチ正規化は重み初期化の役割を減らしている。
残念ながら、バッチの正規化は、小さなバッチサイズに適用する場合、ポイントクラウドで学習する際のメモリ制限に対処する必要があるため、いくつかの欠点がある。
確立された重み初期化戦略はバッチ正規化を不要にすることができるため、これらの欠点を避けることができるが、ポイント畳み込みネットワークにはそのようなアプローチは提案されていない。
このギャップを埋めるために,連続的な畳み込みを多元化する枠組みを提案する。
これにより、主なコントリビューション、分散対応重量初期化が可能になります。
この初期化はバッチの正規化を回避できるが、類似し、場合によっては性能が向上する。
関連論文リスト
- Post-Training Quantization for Re-parameterization via Coarse & Fine
Weight Splitting [13.270381125055275]
本稿では,重みの量子化誤差を低減するために,粗大かつ微細な重み分割法(CFWS)を提案する。
我々は、活性化のための最適な量子化尺度を決定するために改良されたKLメトリックを開発した。
例えば、量子化されたRepVGG-A1モデルは、わずか0.3%の精度損失を示す。
論文 参考訳(メタデータ) (2023-12-17T02:31:20Z) - Batchless Normalization: How to Normalize Activations Across Instances with Minimal Memory Requirements [0.0]
ニューラルネットワークのトレーニングにおいて、バッチ正規化には多くのメリットがある。
本稿では,これらの問題に対処するための単純かつ簡単な方法を示す。
その他のメリットとして、より大きなモデルをトレーニングするためのハードウェア要件を低くすることで、AI研究の民主化に寄与することが期待できる。
論文 参考訳(メタデータ) (2022-12-30T14:15:54Z) - BiTAT: Neural Network Binarization with Task-dependent Aggregated
Transformation [116.26521375592759]
量子化は、与えられたニューラルネットワークの高精度ウェイトとアクティベーションを、メモリ使用量と計算量を減らすために、低精度ウェイト/アクティベーションに変換することを目的としている。
コンパクトに設計されたバックボーンアーキテクチャの極端量子化(1ビットの重み/1ビットのアクティベーション)は、深刻な性能劣化をもたらす。
本稿では,性能劣化を効果的に緩和する新しいQAT法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:25:49Z) - ZerO Initialization: Initializing Residual Networks with only Zeros and
Ones [44.66636787050788]
ディープニューラルネットワークは通常ランダムウェイトを持ち、トレーニング中に安定した信号伝達を保証するために適切に選択された初期分散を持つ。
ばらつきの選択方法にはコンセンサスがなく、レイヤーの数が増えるにつれて、これは難しくなります。
本研究では、広く使われているランダムウェイト初期化を、ゼロと1しか持たない残差ネットワークを初期化する完全決定論的初期化スキームZerOに置き換える。
驚くべきことに、ZerOはImageNetを含むさまざまな画像分類データセットに対して最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-10-25T06:17:33Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - Fractional moment-preserving initialization schemes for training deep
neural networks [1.14219428942199]
ディープニューラルネットワーク(DNN)に対する従来のアプローチは、プレアクティベーションの分散を保存するために、ランダムにネットワーク重みをサンプリングすることである。
本稿では,重み付き分布をモデル化することで,重み付けや事前活性化をモデル化できることを示す。
数値実験により,本手法が訓練および試験性能を向上させることを示す。
論文 参考訳(メタデータ) (2020-05-25T01:10:01Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Gradient $\ell_1$ Regularization for Quantization Robustness [70.39776106458858]
トレーニング後の量子化に対するロバスト性を改善するための単純な正規化スキームを導出する。
量子化対応ネットワークをトレーニングすることにより、異なるビット幅にオンデマンドで量子化できる1組の重みを格納できる。
論文 参考訳(メタデータ) (2020-02-18T12:31:34Z) - Cross-Iteration Batch Normalization [67.83430009388678]
本稿では,CBN(Cross-It Batch Normalization)を提案する。
CBNは、提案した補償手法を使わずに、元のバッチ正規化と過去の繰り返しの統計の直接計算より優れていた。
論文 参考訳(メタデータ) (2020-02-13T18:52:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。