論文の概要: XnODR and XnIDR: Two Accurate and Fast Fully Connected Layers For
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2111.10854v3
- Date: Wed, 20 Sep 2023 01:12:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 01:05:59.869624
- Title: XnODR and XnIDR: Two Accurate and Fast Fully Connected Layers For
Convolutional Neural Networks
- Title(参考訳): xnodrとxnidr:畳み込みニューラルネットワークのための2つの精度と高速の完全連結層
- Authors: Jian Sun, Ali Pourramezan Fard, and Mohammad H. Mahoor
- Abstract要約: Capsule Networkは、視覚認識タスクのためのディープニューラルネットワークの機能間の位置関係を定義するのに強力である。
ボトルネックはカプセル間の動的ルーティング機構の計算複雑性にある。
XnODRとXnIDRは、低いFLOPと少ないパラメータで高精度なネットワークを実現する。
- 参考スコア(独自算出の注目度): 43.85390451313721
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Capsule Network is powerful at defining the positional relationship between
features in deep neural networks for visual recognition tasks, but it is
computationally expensive and not suitable for running on mobile devices. The
bottleneck is in the computational complexity of the Dynamic Routing mechanism
used between the capsules. On the other hand, XNOR-Net is fast and
computationally efficient, though it suffers from low accuracy due to
information loss in the binarization process. To address the computational
burdens of the Dynamic Routing mechanism, this paper proposes new Fully
Connected (FC) layers by xnorizing the linear projection outside or inside the
Dynamic Routing within the CapsFC layer. Specifically, our proposed FC layers
have two versions, XnODR (Xnorize the Linear Projection Outside Dynamic
Routing) and XnIDR (Xnorize the Linear Projection Inside Dynamic Routing). To
test the generalization of both XnODR and XnIDR, we insert them into two
different networks, MobileNetV2 and ResNet-50. Our experiments on three
datasets, MNIST, CIFAR-10, and MultiMNIST validate their effectiveness. The
results demonstrate that both XnODR and XnIDR help networks to have high
accuracy with lower FLOPs and fewer parameters (e.g., 96.14% correctness with
2.99M parameters and 311.74M FLOPs on CIFAR-10).
- Abstract(参考訳): capsule networkは、視覚認識タスクのためのディープニューラルネットワークの機能間の位置関係を定義するのに有効であるが、計算コストは高く、モバイルデバイスで実行するには適さない。
ボトルネックはカプセル間の動的ルーティング機構の計算の複雑さにある。
一方、XNOR-Netは高速かつ計算効率が良いが、二項化処理における情報損失により精度が低下している。
動的ルーティング機構の計算負荷に対処するために,capsfc層内の動的ルーティングの外部または内部に線形射影をxnor化することにより,新しい完全接続(fc)層を提案する。
具体的には、提案するFC層は、XnODR(Xnorize the Linear Projection Outside Dynamic Routing)とXnIDR(Xnorize the Linear Projection Inside Dynamic Routing)の2つのバージョンを持つ。
XnODRとXnIDRの両方の一般化をテストするために、MobileNetV2とResNet-50の2つの異なるネットワークにそれらを挿入する。
MNIST,CIFAR-10,MultiMNISTの3つのデータセットについて実験を行った。
結果は、XnODRとXnIDRの両方のネットワークが、より低いFLOPと少ないパラメータ(例:2.99Mパラメータの96.14%、CIFAR-10の311.74M FLOP)で高い精度を持つことを示す。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - LipKernel: Lipschitz-Bounded Convolutional Neural Networks via Dissipative Layers [0.0468732641979009]
本稿では,畳み込みニューラルネットワーク(CNN)の階層的パラメータ化を提案する。
提案手法は,2次元ロエサー型状態空間モデルを用いて,散逸型畳み込みカーネルを直接パラメータ化する。
提案手法を用いた実行時間は,最先端のリプシッツ有界ネットワークよりも桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-10-29T17:20:14Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - NeuraLUT: Hiding Neural Network Density in Boolean Synthesizable Functions [2.7086888205833968]
Field-Programmable Gate Array (FPGA)アクセラレータは、レイテンシとリソースクリティカルなDeep Neural Network (DNN)推論タスクの処理に成功している。
本稿では、ニューロンの境界を緩和し、サブネットワーク全体を単一のLUTにマッピングすることを提案する。
提案手法は,既知の遅延クリティカルタスク,ジェットサブストラクチャタグ,古典的コンピュータビジョンタスク,MNISTを用いた桁分類で検証する。
論文 参考訳(メタデータ) (2024-02-29T16:10:21Z) - TransXNet: Learning Both Global and Local Dynamics with a Dual Dynamic
Token Mixer for Visual Recognition [71.6546914957701]
本稿では,グローバルな情報と局所的な詳細を入力依存の方法で集約する軽量なDual Dynamic Token Mixer (D-Mixer)を提案する。
我々は、新しいハイブリッドCNN-TransformerビジョンバックボーンネットワークであるTransXNetを設計するために、基本的なビルディングブロックとしてD-Mixerを使用している。
ImageNet-1Kの画像分類タスクでは、TransXNet-TはSwing-Tを0.3%上回り、計算コストの半分以下である。
論文 参考訳(メタデータ) (2023-10-30T09:35:56Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Learning Sparse & Ternary Neural Networks with Entropy-Constrained
Trained Ternarization (EC2T) [17.13246260883765]
ディープニューラルネットワーク(DNN)は、さまざまな機械学習アプリケーションで顕著な成功を収めている。
近年,資源に制約のあるデバイスにDNNを配置することへの関心が高まっている。
本稿では,スパースニューラルネットワークと3次ニューラルネットワークの汎用フレームワークであるEntropy-Constrained Trained Ternarization (EC2T)を提案する。
論文 参考訳(メタデータ) (2020-04-02T15:38:00Z) - DHP: Differentiable Meta Pruning via HyperNetworks [158.69345612783198]
本稿では,ネットワークの自動プルーニングのためのハイパーネットによる識別可能なプルーニング手法を提案する。
遅延ベクトルは、バックボーンネットワーク内の畳み込み層の出力チャネルを制御し、レイヤのプルーニングのハンドルとして機能する。
画像分類、単一画像超解像、復調のための様々なネットワークで実験が行われた。
論文 参考訳(メタデータ) (2020-03-30T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。