論文の概要: Sauron U-Net: Simple automated redundancy elimination in medical image segmentation via filter pruning
- arxiv url: http://arxiv.org/abs/2209.13590v2
- Date: Wed, 22 May 2024 08:44:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-26 21:51:50.640756
- Title: Sauron U-Net: Simple automated redundancy elimination in medical image segmentation via filter pruning
- Title(参考訳): Sauron U-Net:フィルタプルーニングによる医用画像分割における簡便な冗長性除去
- Authors: Juan Miguel Valverde, Artem Shatillo, Jussi Tohka,
- Abstract要約: Sauronは畳み込みニューラルネットワーク(CNN)の冗長な特徴マップを除去するフィルタプルーニング法である
医用画像分割作業において,Sauronと5つの最先端フィルタプルーニング手法を評価した。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Sauron, a filter pruning method that eliminates redundant feature maps of convolutional neural networks (CNNs). Sauron optimizes, jointly with the loss function, a regularization term that promotes feature maps clustering at each convolutional layer by reducing the distance between feature maps. Sauron then eliminates the filters corresponding to the redundant feature maps by using automatically adjusted layer-specific thresholds. Unlike most filter pruning methods, Sauron requires minimal changes to typical neural network optimization because it prunes and optimizes CNNs jointly, which, in turn, accelerates the optimization over time. Moreover, unlike with other cluster-based approaches, the user does not need to specify the number of clusters in advance, a hyperparameter that is difficult to tune. We evaluated Sauron and five state-of-the-art filter pruning methods on four medical image segmentation tasks. This is an area where little attention has been paid to filter pruning, but where smaller CNN models are desirable for local deployment, mitigating privacy concerns associated with cloud-based solutions. Sauron was the only method that achieved a reduction in model size of over 90% without deteriorating substantially the performance. Sauron also achieved, overall, the fastest models at inference time in machines with and without GPUs. Finally, we show through experiments that the feature maps of models pruned with Sauron are highly interpretable, which is essential for medical image segmentation.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク(CNN)の冗長な特徴マップを除去するフィルタプルーニング手法であるSauronを紹介する。
Sauronは、各畳み込み層における特徴写像のクラスタリングを促進する正規化用語であるロス関数と共同で最適化し、特徴写像間の距離を小さくする。
Sauronは、自動的に調整された層固有のしきい値を使用することで、冗長な特徴マップに対応するフィルタを除去する。
多くのフィルタプルーニング法とは異なり、Sauronは典型的なニューラルネットワーク最適化に最小限の変更を必要とする。
さらに、他のクラスタベースのアプローチとは異なり、事前にクラスタの数を指定する必要はない。
医用画像分割作業において,Sauronと5つの最先端フィルタプルーニング法について検討した。
この領域では、プルーニングのフィルタリングにはほとんど注意が払われていないが、小さなCNNモデルがローカルデプロイメントに望ましいため、クラウドベースのソリューションに関連するプライバシー上の懸念が軽減されている。
サウロンは性能を著しく劣化させることなくモデルサイズを90%以上削減した唯一の方法であった。
Sauronはまた、GPUと非GPUを持つマシンにおいて、推論時に最速のモデルも達成した。
最後に, 医用画像のセグメンテーションに欠かせない, サロンで刈り取られたモデルの特徴マップが極めて解釈可能であることを示す。
関連論文リスト
- Memory-efficient particle filter recurrent neural network for object
localization [53.68402839500528]
本研究では、オブジェクトの局所化問題を解決するために、新しいメモリ効率のリカレントニューラルネットワーク(RNN)アーキテクチャを提案する。
古典的粒子フィルタの概念をGRU RNNアーキテクチャと組み合わせる。
我々の実験では、mePFRNNモデルは、考慮された競合相手よりも正確なローカライゼーションを提供し、訓練されたパラメータを少なくする。
論文 参考訳(メタデータ) (2023-10-02T19:41:19Z) - Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Neural Network Pruning for Real-time Polyp Segmentation [8.08470060885395]
ポリプセグメンテーションにおけるニューラルネットワークプルーニングの適用例を示す。
畳み込みフィルタの重要スコアを計算し、最小スコアを持つフィルタを除去する。
論文 参考訳(メタデータ) (2023-06-22T21:03:50Z) - IterativePFN: True Iterative Point Cloud Filtering [18.51768749680731]
基本的な3Dビジョンタスクは、ポイントクラウドフィルタリング(point cloud filtering)またはデノイング(denoising)として知られるノイズの除去である。
本報告では,本フィルタを内部でモデル化する複数のイテレーションで構成されたIterativePFN(Iterative Cloud Filtering Network)を提案する。
我々の手法は最先端の手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-04-04T04:47:44Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Manipulating Identical Filter Redundancy for Efficient Pruning on Deep
and Complicated CNN [126.88224745942456]
そこで我々は,Centripetal SGD (C-SGD) を提案する。
C-SGDは、既存のメソッドと比較して冗長性がより組織化されているため、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-07-30T06:18:19Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Self Sparse Generative Adversarial Networks [73.590634413751]
GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。
本論文では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。
論文 参考訳(メタデータ) (2021-01-26T04:49:12Z) - Filter Pruning using Hierarchical Group Sparse Regularization for Deep
Convolutional Neural Networks [3.5636461829966093]
階層型群スパース正規化を用いたフィルタプルーニング法を提案する。
CIFAR-10ではResNetの50%以上のパラメータを削減できるが、テストサンプルの精度は0.3%しか低下しない。
また、TinyImageNet-200では、ResNetの34%のパラメータがベースラインネットワークよりも高い精度で削減されている。
論文 参考訳(メタデータ) (2020-11-04T16:29:41Z) - SCOP: Scientific Control for Reliable Neural Network Pruning [127.20073865874636]
本稿では,科学的制御を設定することにより,信頼性の高いニューラルネットワークプルーニングアルゴリズムを提案する。
冗長フィルタは、異なる特徴の逆数過程において発見できる。
提案手法では,ResNet-101のパラメータ57.8%,FLOP60.2%を削減できる。
論文 参考訳(メタデータ) (2020-10-21T03:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。