論文の概要: Image Complexity Guided Network Compression for Biomedical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2107.02927v1
- Date: Tue, 6 Jul 2021 22:28:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 03:44:20.071650
- Title: Image Complexity Guided Network Compression for Biomedical Image
Segmentation
- Title(参考訳): 医用画像分割のための画像複雑性誘導ネットワーク圧縮
- Authors: Suraj Mishra, Danny Z. Chen, X. Sharon Hu
- Abstract要約: 生体画像セグメント化のための画像複雑化誘導型ネットワーク圧縮手法を提案する。
データセットの複雑さを、圧縮によるターゲットネットワークの精度劣化にマップする。
このマッピングは、圧縮ネットワークを生成するための畳み込み層ワイド乗算因子を決定するために用いられる。
- 参考スコア(独自算出の注目度): 5.926887379656135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compression is a standard procedure for making convolutional neural networks
(CNNs) adhere to some specific computing resource constraints. However,
searching for a compressed architecture typically involves a series of
time-consuming training/validation experiments to determine a good compromise
between network size and performance accuracy. To address this, we propose an
image complexity-guided network compression technique for biomedical image
segmentation. Given any resource constraints, our framework utilizes data
complexity and network architecture to quickly estimate a compressed model
which does not require network training. Specifically, we map the dataset
complexity to the target network accuracy degradation caused by compression.
Such mapping enables us to predict the final accuracy for different network
sizes, based on the computed dataset complexity. Thus, one may choose a
solution that meets both the network size and segmentation accuracy
requirements. Finally, the mapping is used to determine the convolutional
layer-wise multiplicative factor for generating a compressed network. We
conduct experiments using 5 datasets, employing 3 commonly-used CNN
architectures for biomedical image segmentation as representative networks. Our
proposed framework is shown to be effective for generating compressed
segmentation networks, retaining up to $\approx 95\%$ of the full-sized network
segmentation accuracy, and at the same time, utilizing $\approx 32x$ fewer
network trainable weights (average reduction) of the full-sized networks.
- Abstract(参考訳): 圧縮は、畳み込みニューラルネットワーク(CNN)を特定のコンピューティングリソース制約に準拠させる標準的な手順である。
しかしながら、圧縮アーキテクチャの探索は通常、ネットワークサイズとパフォーマンスの正確さのよい妥協点を決定するために、一連の時間を要するトレーニング/検証実験を伴う。
そこで本研究では,バイオメディカルイメージセグメンテーションのための画像複雑化誘導型ネットワーク圧縮手法を提案する。
リソースの制約を考慮に入れれば、我々のフレームワークはデータ複雑性とネットワークアーキテクチャを利用して、ネットワークトレーニングを必要としない圧縮モデルを素早く見積もる。
具体的には、データセットの複雑さを圧縮によるターゲットネットワークの精度劣化にマップする。
このようなマッピングにより、計算されたデータセットの複雑さに基づいて、異なるネットワークサイズの最終的な精度を予測することができる。
したがって、ネットワークサイズとセグメンテーション精度の要件の両方を満たすソリューションを選択することができる。
最後に、このマッピングを用いて、圧縮ネットワークを生成する畳み込み層ワイド乗算因子を決定する。
5つのデータセットを用いて実験を行い,生体画像セグメンテーションのための3種類のcnnアーキテクチャを代表ネットワークとして用いた。
提案手法は,圧縮セグメンテーションネットワークの生成に有効であり,フルサイズのネットワークセグメンテーション精度を最大$\approx 95\%,フルサイズのネットワークのトレーニング可能な重量(平均減量)を$$\approx 32x$に抑えることができる。
関連論文リスト
- BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image Segmentation [11.986549780782724]
医用画像の正確な分割作業のために,BRAU-Net++ というハイブリッドで効果的な CNN-Transformer ネットワークを提案する。
具体的には、BRAU-Net++は、U字型エンコーダデコーダ構造を設計するために、コアビルディングブロックとしてバイレベルルーティングアテンションを使用する。
提案手法は,そのベースラインであるBRAU-Netを含む,最先端の手法を超越した手法である。
論文 参考訳(メタデータ) (2024-01-01T10:49:09Z) - Fast Conditional Network Compression Using Bayesian HyperNetworks [54.06346724244786]
条件付き圧縮問題を導入し、それに取り組むための高速なフレームワークを提案する。
問題は、トレーニング済みの大規模ニューラルネットワークをターゲットコンテキストに応じて最適な小さなネットワークに素早く圧縮する方法である。
提案手法は, ベースライン方式よりもはるかに小型の圧縮ネットワークを高速に生成できる。
論文 参考訳(メタデータ) (2022-05-13T00:28:35Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Towards Bi-directional Skip Connections in Encoder-Decoder Architectures
and Beyond [95.46272735589648]
本稿では,デコードされた機能をエンコーダに戻すための後方スキップ接続を提案する。
我々の設計は、任意のエンコーダ・デコーダアーキテクチャにおいて前方スキップ接続と共同で適用することができる。
本稿では,2相ニューラルネットワーク探索(NAS)アルゴリズム,すなわちBiX-NASを提案する。
論文 参考訳(メタデータ) (2022-03-11T01:38:52Z) - Exploring Structural Sparsity in Neural Image Compression [14.106763725475469]
本稿では,各コンボリューションチャネルの重要性を判定し,トレーニング中に空間性を導入するために,ABCM(プラグイン適応型バイナリチャネルマスキング)を提案する。
推論中、重要でないチャネルをプルーニングしてスリムネットワークを得る。
実験の結果,最大7倍の計算削減と3倍の加速は無視可能な性能低下で達成できることがわかった。
論文 参考訳(メタデータ) (2022-02-09T17:46:49Z) - Leveraging Image Complexity in Macro-Level Neural Network Design for
Medical Image Segmentation [3.974175960216864]
画像の複雑さは、与えられたデータセットに最適なものを選択するためのガイドラインとして利用できることを示す。
高複雑性データセットの場合、元のイメージ上で実行される浅いネットワークは、ダウンサンプリングされたイメージ上で実行されるディープネットワークよりもセグメンテーション結果が優れている可能性がある。
論文 参考訳(メタデータ) (2021-12-21T09:49:47Z) - PocketNet: A Smaller Neural Network for 3D Medical Image Segmentation [0.0]
私たちは、パラメータの数の3%未満を使用しながら、従来のCNNに匹敵するセグメンテーション結果を達成するPocketNetと呼ばれる新しいCNNアーキテクチャを導き出します。
我々は,PocketNetが従来のCNNに匹敵するセグメンテーション結果を達成し,パラメータ数の3%未満を用いていることを示す。
論文 参考訳(メタデータ) (2021-04-21T20:10:30Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Pruning and Quantization for Deep Neural Network Acceleration: A Survey [2.805723049889524]
ディープニューラルネットワークは、コンピュータビジョンの分野で異常な能力を示す多くのアプリケーションに応用されている。
複雑なネットワークアーキテクチャは効率的なリアルタイムデプロイメントに挑戦し、計算資源とエネルギーコストを必要とする。
本稿では,pruning と quantization の2種類のネットワーク圧縮に関する調査を行う。
論文 参考訳(メタデータ) (2021-01-24T08:21:04Z) - The Heterogeneity Hypothesis: Finding Layer-Wise Differentiated Network
Architectures [179.66117325866585]
我々は、通常見過ごされる設計空間、すなわち事前定義されたネットワークのチャネル構成を調整することを検討する。
この調整は、拡張ベースラインネットワークを縮小することで実現でき、性能が向上する。
画像分類、視覚追跡、画像復元のための様々なネットワークとデータセットで実験を行う。
論文 参考訳(メタデータ) (2020-06-29T17:59:26Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。