論文の概要: HexCNN: A Framework for Native Hexagonal Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2101.10897v1
- Date: Mon, 25 Jan 2021 08:23:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:04:15.409632
- Title: HexCNN: A Framework for Native Hexagonal Convolutional Neural Networks
- Title(参考訳): HexCNN: ネイティブな六角形畳み込みニューラルネットワークのためのフレームワーク
- Authors: Yunxiang Zhao, Qiuhong Ke, Flip Korn, Jianzhong Qi, Rui Zhang
- Abstract要約: 六角形CNNモデルは、IACTデータ解析や空中シーン分類などのアプリケーションで優れた性能を発揮しています。
既存の研究では、主にZeroOutメソッドを使用して六角形処理を模倣し、かなりのメモリと計算のオーバーヘッドを引き起こします。
HexCNNという新しいネイティブ六角形CNNフレームワークでこの不足に対処する。
- 参考スコア(独自算出の注目度): 30.390664592852154
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hexagonal CNN models have shown superior performance in applications such as
IACT data analysis and aerial scene classification due to their better rotation
symmetry and reduced anisotropy. In order to realize hexagonal processing,
existing studies mainly use the ZeroOut method to imitate hexagonal processing,
which causes substantial memory and computation overheads. We address this
deficiency with a novel native hexagonal CNN framework named HexCNN. HexCNN
takes hexagon-shaped input and performs forward and backward propagation on the
original form of the input based on hexagon-shaped filters, hence avoiding
computation and memory overheads caused by imitation. For applications with
rectangle-shaped input but require hexagonal processing, HexCNN can be applied
by padding the input into hexagon-shape as preprocessing. In this case, we show
that the time and space efficiency of HexCNN still outperforms existing
hexagonal CNN methods substantially. Experimental results show that compared
with the state-of-the-art models, which imitate hexagonal processing but using
rectangle-shaped filters, HexCNN reduces the training time by up to 42.2%.
Meanwhile, HexCNN saves the memory space cost by up to 25% and 41.7% for
loading the input and performing convolution, respectively.
- Abstract(参考訳): ヘキサゴナルcnnモデルは、回転対称性が向上し、異方性が低下するため、iactデータ解析や空中シーン分類などの応用において優れた性能を示している。
六角形処理を実現するために、既存の研究では、主にZeroOutメソッドを使用して六角形処理を模倣し、メモリと計算のオーバーヘッドを大幅に引き起こします。
HexCNNという新しいネイティブ六角形CNNフレームワークでこの不足に対処する。
HexCNNは六角形の入力を受け取り、六角形のフィルタに基づいて入力の原形を前方・後方に伝播することで、模倣による計算やメモリオーバーヘッドを回避する。
矩形形状の入力を必要とするが六角形処理を必要とするアプリケーションの場合、HexCNNは前処理として入力を六角形にパディングすることで適用できる。
この場合、HexCNNの時間と空間効率は、既存の六角形CNN法を著しく上回っていることを示す。
実験の結果、六角形処理を模倣するが長方形フィルタを使用する最先端モデルと比較して、HexCNNはトレーニング時間を最大42.2%短縮した。
一方、HexCNNは、入力の読み込みと畳み込みの実行のためにメモリスペースコストを最大25%と41.7%節約します。
関連論文リスト
- UniHENN: Designing Faster and More Versatile Homomorphic Encryption-based CNNs without im2col [6.496463706588549]
ホモモルフィック暗号化(HE)は、復号化せずに暗号化データの計算を可能にすることによって、プライバシー保護の深層学習を可能にする。
HEで畳み込みニューラルネットワーク(CNN)をデプロイするのは、im2col技術を用いて、入力データを畳み込みのための2次元行列に変換する必要があるため、難しい。
UniHENNは、新しいHEベースのCNNアーキテクチャで、im2colの必要性を排除し、その汎用性と幅広いCNNモデルとの互換性を高める。
論文 参考訳(メタデータ) (2024-02-05T14:52:01Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - Optimizing Sparse Matrix Multiplications for Graph Neural Networks [8.080228311931261]
グラフニューラルネットワーク(GNN)は、グラフ構造をモデル化するための強力なテクニックとして登場している。
実世界のグラフデータのばらつきにより、GNN性能は広いスパース行列乗算演算によって制限される。
本稿では,スパース行列ストレージフォーマットの選択がGNNの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2021-10-30T22:08:51Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - 6DCNN with roto-translational convolution filters for volumetric data
processing [0.0]
6DCNNは3次元データ処理における局所パターンの相対的位置と向きを検出する問題に対処するように設計されている。
空間パターン認識における6次元畳み込みの特性とその効率性を実証する。
また、最近のCASPタンパク質構造予測課題から、いくつかのデータセットで6DCNNモデルを評価する。
論文 参考訳(メタデータ) (2021-07-26T09:56:55Z) - ActNN: Reducing Training Memory Footprint via 2-Bit Activation
Compressed Training [68.63354877166756]
ActNNは、バック伝搬のためのランダムに量子化されたアクティベーションを格納するメモリ効率のトレーニングフレームワークである。
ActNNはアクティベーションのメモリフットプリントを12倍に削減し、6.6倍から14倍のバッチサイズでトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-29T05:50:54Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Convex Shape Prior for Deep Neural Convolution Network based Eye Fundus
Images Segmentation [6.163107242394357]
画像分割のためによく使われるDCNNに容易に統合できる手法を提案する。
本手法は,DCNNにおけるシグモイド活性化関数の二重表現に基づく。
提案手法は,従来のDCNNセグメンテーション法よりも効率が高く,性能も優れていることを示す。
論文 参考訳(メタデータ) (2020-05-15T11:36:04Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z) - Hexagonal Image Processing in the Context of Machine Learning: Conception of a Biologically Inspired Hexagonal Deep Learning Framework [0.27309692684728604]
機械学習の文脈における六角形画像処理は、生物学的モデルに基づく進化的動機付け構造の利点を組み合わせた画像処理システムの開発を扱う。
この貢献は、ヘキサゴナル画像処理フレームワークであるヘキサゴナル画像処理フレームワークを合成する一般的なアプリケーション指向のアプローチとして機能する。
生成したテスト環境の結果から,実現されたフレームワークが六角形画像処理システムの現在のアプローチを超越していることが分かる。
論文 参考訳(メタデータ) (2019-11-25T21:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。