論文の概要: L-CNN: A Lattice cross-fusion strategy for multistream convolutional
neural networks
- arxiv url: http://arxiv.org/abs/2008.00157v1
- Date: Sat, 1 Aug 2020 03:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:30:34.681587
- Title: L-CNN: A Lattice cross-fusion strategy for multistream convolutional
neural networks
- Title(参考訳): L-CNN:マルチストリーム畳み込みニューラルネットワークのための格子相互融合戦略
- Authors: Ana Paula G. S. de Almeida and Flavio de Barros Vidal
- Abstract要約: 本稿では,マルチストリーム畳み込みネットワークの融合戦略であるLattice Cross Fusionを提案する。
画像分類データセットであるCIFAR-10を改良したAlexNet-LCNNバージョンを用いて目的的に悪化させた結果,この手法は,より高速な収束,安定性,ロバスト性を備えたベースラインシングルストリームネットワークにおいて,46%の高速化を実現した。
- 参考スコア(独自算出の注目度): 0.3299672391663526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a fusion strategy for multistream convolutional networks,
the Lattice Cross Fusion. This approach crosses signals from convolution layers
performing mathematical operation-based fusions right before pooling layers.
Results on a purposely worsened CIFAR-10, a popular image classification data
set, with a modified AlexNet-LCNN version show that this novel method
outperforms by 46% the baseline single stream network, with faster convergence,
stability, and robustness.
- Abstract(参考訳): 本稿では,マルチストリーム畳み込みネットワークの融合戦略であるLattice Cross Fusionを提案する。
このアプローチは、プール層直前に数学的操作に基づく融合を行う畳み込み層からの信号と交差する。
画像分類データセットであるCIFAR-10を改良したAlexNet-LCNNバージョンを用いて目的的に悪化させた結果,この手法は,より高速な収束,安定性,ロバスト性を備えたベースラインシングルストリームネットワークにおいて,46%向上した。
関連論文リスト
- GFN: A graph feedforward network for resolution-invariant reduced operator learning in multifidelity applications [0.0]
本研究は,多忠実度アプリケーションのための新しい分解能不変モデルオーダー削減戦略を提案する。
我々はこの研究で開発された新しいニューラルネットワーク層、グラフフィードフォワードネットワークに基づいてアーキテクチャを構築した。
パラメトリックな偏微分方程式に対する自己エンコーダに基づく還元戦略において,異なるメッシュサイズでのトレーニングとテストの能力を利用する。
論文 参考訳(メタデータ) (2024-06-05T18:31:37Z) - Towards Meta-Pruning via Optimal Transport [64.6060250923073]
本稿では, フラニングパラダイムに挑戦する「イントラフュージョン」という新しいアプローチを提案する。
モデル融合と最適輸送の概念を利用して、より効果的なスパースモデル表現に到達する。
CIFAR-10, CIFAR-100, ImageNetなどの一般的なデータセット上で, 各種ネットワークのベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-12T17:50:56Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - SPP-CNN: An Efficient Framework for Network Robustness Prediction [13.742495880357493]
本稿では,空間ピラミッドプール畳み込みニューラルネットワーク(SPP-CNN)のネットワークロバスト性予測のための効率的なフレームワークを開発する。
新しいフレームワークは、畳み込み層と完全に接続された層の間に空間ピラミッドプーリング層を設置し、CNNベースの予測アプローチにおける一般的なミスマッチ問題を克服する。
論文 参考訳(メタデータ) (2023-05-13T09:09:20Z) - Enhancing Deformable Convolution based Video Frame Interpolation with
Coarse-to-fine 3D CNN [4.151439675744056]
本稿では,3次元CNNの微細化とマルチフロー予測の高速化を目的とした,変形可能な畳み込み型ビデオフレーム(VFI)を提案する。
その結果,他の最先端VFI法よりも優れた性能を示す提案手法の有効性が明らかとなった。
論文 参考訳(メタデータ) (2022-02-15T21:20:18Z) - Model Fusion of Heterogeneous Neural Networks via Cross-Layer Alignment [17.735593218773758]
CLAFusionと呼ばれる新しいモデル融合フレームワークを提案し、異なる層でニューラルネットワークを融合させる。
階層間のアライメントに基づいて、階層モデル融合を適用する前に、ニューラルネットワークの層数のバランスをとる。
論文 参考訳(メタデータ) (2021-10-29T05:02:23Z) - Pruning Neural Networks with Interpolative Decompositions [5.377278489623063]
本稿では,ニューラルネットワークのプルーニングに対する原理的アプローチを導入し,その問題を低ランク行列近似として定式化する。
まず、プリミティブのセットを構築して、1つの完全に接続された畳み込み層をプルークする方法を実証する。
我々は,CIFAR-10上でVGG-16を用いて93.62$pm$0.36%の精度を実現し,FLOPSを51%削減した。
論文 参考訳(メタデータ) (2021-07-30T20:13:49Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。