論文の概要: Sauron U-Net: Simple automated redundancy elimination in medical image
segmentation via filter pruning
- arxiv url: http://arxiv.org/abs/2209.13590v1
- Date: Tue, 27 Sep 2022 17:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:51:37.712765
- Title: Sauron U-Net: Simple automated redundancy elimination in medical image
segmentation via filter pruning
- Title(参考訳): Sauron U-Net:フィルタプルーニングによる医用画像分割における簡便な冗長性除去
- Authors: Juan Miguel Valverde, Artem Shatillo, Jussi Tohka
- Abstract要約: 本稿では,冗長な特徴写像を除去するフィルタプルーニング手法であるSauronを提案する。
Sauronは、様々なメトリクスで示すように、特徴写像クラスタの形成を促進する正規化項を最小化する。
- 参考スコア(独自算出の注目度): 0.3867363075280544
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Sauron, a filter pruning method that eliminates redundant feature
maps by discarding the corresponding filters with automatically-adjusted
layer-specific thresholds. Furthermore, Sauron minimizes a regularization term
that, as we show with various metrics, promotes the formation of feature maps
clusters. In contrast to most filter pruning methods, Sauron is single-phase,
similarly to typical neural network optimization, requiring fewer
hyperparameters and design decisions. Additionally, unlike other cluster-based
approaches, our method does not require pre-selecting the number of clusters,
which is non-trivial to determine and varies across layers. We evaluated Sauron
and three state-of-the-art filter pruning methods on three medical image
segmentation tasks. This is an area where filter pruning has received little
attention and where it can help building efficient models for medical grade
computers that cannot use cloud services due to privacy considerations. Sauron
achieved models with higher performance and pruning rate than the competing
pruning methods. Additionally, since Sauron removes filters during training,
its optimization accelerated over time. Finally, we show that the feature maps
of a Sauron-pruned model were highly interpretable. The Sauron code is publicly
available at https://github.com/jmlipman/SauronUNet.
- Abstract(参考訳): 自動調整層別しきい値で対応するフィルタを破棄することにより,冗長な特徴写像を除去するフィルタプルーニング手法であるSauronを提案する。
さらに、sauronは、さまざまなメトリクスで示すように、フィーチャーマップクラスタの形成を促進する正規化項を最小化する。
ほとんどのフィルタプルーニング法とは対照的に、サウロンは典型的なニューラルネットワーク最適化と同様に単相であり、ハイパーパラメータと設計決定を少なくする。
さらに、他のクラスタベースのアプローチとは異なり、我々の方法はクラスタの数を事前に選択する必要がない。
医用画像分割作業におけるSauronおよび3つの最先端フィルタプルーニング手法の評価を行った。
これは、フィルタの刈り取りがあまり注目されず、プライバシの配慮によりクラウドサービスを使用しない医療用グレードコンピュータの効率的なモデルを構築するのに役立つ領域である。
サウロンは競合するプルーニング法よりも高い性能とプルーニング率のモデルを達成した。
さらに、Sauronはトレーニング中にフィルタを削除するため、最適化は時間とともに加速した。
最後に, サウロン刈り込みモデルの特徴地図は, 高い解釈性を示した。
sauronのコードはhttps://github.com/jmlipman/sauronunetで公開されている。
関連論文リスト
- Memory-efficient particle filter recurrent neural network for object
localization [53.68402839500528]
本研究では、オブジェクトの局所化問題を解決するために、新しいメモリ効率のリカレントニューラルネットワーク(RNN)アーキテクチャを提案する。
古典的粒子フィルタの概念をGRU RNNアーキテクチャと組み合わせる。
我々の実験では、mePFRNNモデルは、考慮された競合相手よりも正確なローカライゼーションを提供し、訓練されたパラメータを少なくする。
論文 参考訳(メタデータ) (2023-10-02T19:41:19Z) - Structured Network Pruning by Measuring Filter-wise Interactions [6.037167142826297]
SNPFI (Structured Network Pruning by Measurement filter-wise Interaction) を用いた構造化ネットワークプルーニング手法を提案する。
刈取中、SNPFIはフィルタ利用強度に基づいて適切な間隔を自動的に割り当てる。
我々はSNPFIの有効性をいくつかの一般的なCNNモデルで実証的に実証した。
論文 参考訳(メタデータ) (2023-07-03T05:26:05Z) - Neural Network Pruning for Real-time Polyp Segmentation [8.08470060885395]
ポリプセグメンテーションにおけるニューラルネットワークプルーニングの適用例を示す。
畳み込みフィルタの重要スコアを計算し、最小スコアを持つフィルタを除去する。
論文 参考訳(メタデータ) (2023-06-22T21:03:50Z) - IterativePFN: True Iterative Point Cloud Filtering [18.51768749680731]
基本的な3Dビジョンタスクは、ポイントクラウドフィルタリング(point cloud filtering)またはデノイング(denoising)として知られるノイズの除去である。
本報告では,本フィルタを内部でモデル化する複数のイテレーションで構成されたIterativePFN(Iterative Cloud Filtering Network)を提案する。
我々の手法は最先端の手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-04-04T04:47:44Z) - Asymptotic Soft Cluster Pruning for Deep Neural Networks [5.311178623385279]
フィルタプルーニング法は, 選択したフィルタを除去することにより, 構造的疎結合を導入する。
Asymptotic Soft Cluster Pruning と呼ばれる新しいフィルタプルーニング法を提案する。
提案手法は,多くの最先端アルゴリズムと比較して,競合的な結果が得られる。
論文 参考訳(メタデータ) (2022-06-16T13:58:58Z) - Interspace Pruning: Using Adaptive Filter Representations to Improve
Training of Sparse CNNs [69.3939291118954]
非構造プルーニングは畳み込みニューラルネットワーク(CNN)のメモリフットプリントを削減するのに適している
標準非構造化プルーニング(SP)はフィルタ要素をゼロにすることでCNNのメモリフットプリントを削減する。
既存のプルーニング法を改善する汎用ツールであるインタースペースプルーニング(IP)を導入する。
論文 参考訳(メタデータ) (2022-03-15T11:50:45Z) - Manipulating Identical Filter Redundancy for Efficient Pruning on Deep
and Complicated CNN [126.88224745942456]
そこで我々は,Centripetal SGD (C-SGD) を提案する。
C-SGDは、既存のメソッドと比較して冗長性がより組織化されているため、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-07-30T06:18:19Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Self Sparse Generative Adversarial Networks [73.590634413751]
GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。
本論文では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。
論文 参考訳(メタデータ) (2021-01-26T04:49:12Z) - Filter Pruning using Hierarchical Group Sparse Regularization for Deep
Convolutional Neural Networks [3.5636461829966093]
階層型群スパース正規化を用いたフィルタプルーニング法を提案する。
CIFAR-10ではResNetの50%以上のパラメータを削減できるが、テストサンプルの精度は0.3%しか低下しない。
また、TinyImageNet-200では、ResNetの34%のパラメータがベースラインネットワークよりも高い精度で削減されている。
論文 参考訳(メタデータ) (2020-11-04T16:29:41Z) - SCOP: Scientific Control for Reliable Neural Network Pruning [127.20073865874636]
本稿では,科学的制御を設定することにより,信頼性の高いニューラルネットワークプルーニングアルゴリズムを提案する。
冗長フィルタは、異なる特徴の逆数過程において発見できる。
提案手法では,ResNet-101のパラメータ57.8%,FLOP60.2%を削減できる。
論文 参考訳(メタデータ) (2020-10-21T03:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。