論文の概要: MTP: Multi-Task Pruning for Efficient Semantic Segmentation Networks
- arxiv url: http://arxiv.org/abs/2007.08386v2
- Date: Tue, 15 Mar 2022 06:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:59:18.309302
- Title: MTP: Multi-Task Pruning for Efficient Semantic Segmentation Networks
- Title(参考訳): mtp:効率的なセマンティクスセグメンテーションのためのマルチタスクpruning
- Authors: Xinghao Chen, Yiman Zhang, Yunhe Wang
- Abstract要約: セマンティックセグメンテーションネットワークのためのマルチタスクチャネルプルーニング手法を提案する。
各畳み込みフィルタの重要性は、任意の層のチャネルを分類と分割タスクによって同時に決定する。
いくつかのベンチマークによる実験結果は、最先端の刈り取り法よりも提案アルゴリズムの方が優れていることを示している。
- 参考スコア(独自算出の注目度): 32.84644563020912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on channel pruning for semantic segmentation networks.
Previous methods to compress and accelerate deep neural networks in the
classification task cannot be straightforwardly applied to the semantic
segmentation network that involves an implicit multi-task learning problem via
pre-training. To identify the redundancy in segmentation networks, we present a
multi-task channel pruning approach. The importance of each convolution filter
\wrt the channel of an arbitrary layer will be simultaneously determined by the
classification and segmentation tasks. In addition, we develop an alternative
scheme for optimizing importance scores of filters in the entire network.
Experimental results on several benchmarks illustrate the superiority of the
proposed algorithm over the state-of-the-art pruning methods. Notably, we can
obtain an about $2\times$ FLOPs reduction on DeepLabv3 with only an about $1\%$
mIoU drop on the PASCAL VOC 2012 dataset and an about $1.3\%$ mIoU drop on
Cityscapes dataset, respectively.
- Abstract(参考訳): 本稿では,セマンティックセグメンテーションネットワークのためのチャネルプルーニングに焦点を当てた。
分類タスクにおいてディープニューラルネットワークを圧縮・加速する以前の手法は、事前学習による暗黙のマルチタスク学習問題を伴うセマンティックセグメンテーションネットワークには直接適用できない。
セグメンテーションネットワークにおける冗長性を識別するために,マルチタスクチャネルプルーニング方式を提案する。
各畳み込みフィルタの重要さは、任意の層のチャネルを分類と分割タスクによって同時に決定する。
さらに,ネットワーク全体のフィルタの重要度を最適化するための代替手法を開発した。
いくつかのベンチマークにおける実験結果は、最先端の刈り取り法よりも提案アルゴリズムが優れていることを示している。
特に、DeepLabv3では、PASCAL VOC 2012データセットでは、約$1\%$ mIoU、Cityscapesデータセットでは$1.3\%$ mIoUで約$2\times$ FLOPsの削減が得られる。
関連論文リスト
- SGLP: A Similarity Guided Fast Layer Partition Pruning for Compressing Large Deep Models [19.479746878680707]
レイヤプルーニングは、ネットワークサイズを削減し、計算効率を向上させるための強力なアプローチである。
大規模深層モデル圧縮のための類似性誘導高速層分割プルーニングを提案する。
本手法は精度と計算効率の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-10-14T04:01:08Z) - A Point-Based Approach to Efficient LiDAR Multi-Task Perception [49.91741677556553]
PAttFormerは、ポイントクラウドにおける共同セマンティックセグメンテーションとオブジェクト検出のための効率的なマルチタスクアーキテクチャである。
他のLiDARベースのマルチタスクアーキテクチャとは異なり、提案したPAttFormerはタスク固有のポイントクラウド表現のために別の機能エンコーダを必要としない。
マルチタスク学習では,mIouでは+1.7%,mAPでは3Dオブジェクト検出では+1.7%,LiDARセマンティックセマンティックセグメンテーションは+1.7%向上した。
論文 参考訳(メタデータ) (2024-04-19T11:24:34Z) - Performance-aware Approximation of Global Channel Pruning for Multitask
CNNs [13.356477450355547]
グローバルチャネルプルーニング(GCP)は、異なるレイヤにわたるチャネル(フィルタ)のサブセットを、パフォーマンスを損なうことなく、ディープモデルから削除することを目的としている。
本稿では,PAGCP(Performance-Aware Global Channel Pruning)フレームワークを提案する。
複数のマルチタスクデータセットの実験により、提案されたPAGCPは、小さなパフォーマンス低下を伴ってFLOPとパラメータを60%以上削減できることが示された。
論文 参考訳(メタデータ) (2023-03-21T15:15:21Z) - Dynamic Neural Network for Multi-Task Learning Searching across Diverse
Network Topologies [14.574399133024594]
多様なグラフトポロジを持つ複数のタスクに対して最適化された構造を探索する新しいMTLフレームワークを提案する。
我々は、トポロジ的に多様なタスク適応構造を構築するために、読み出し/読み出し層を備えたDAGベースの制限付き中央ネットワークを設計する。
論文 参考訳(メタデータ) (2023-03-13T05:01:50Z) - Group Fisher Pruning for Practical Network Compression [58.25776612812883]
本稿では,様々な複雑な構造に応用可能な汎用チャネルプルーニング手法を提案する。
我々は、単一チャネルと結合チャネルの重要性を評価するために、フィッシャー情報に基づく統一されたメトリクスを導出する。
提案手法は,結合チャネルを含む任意の構造をプルークするために利用できる。
論文 参考訳(メタデータ) (2021-08-02T08:21:44Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - A "Network Pruning Network" Approach to Deep Model Compression [62.68120664998911]
マルチタスクネットワークを用いた深部モデル圧縮のためのフィルタプルーニング手法を提案する。
我々のアプローチは、プレナーネットワークを学習して、事前訓練されたターゲットネットワークを訓練することに基づいている。
提案手法によって生成された圧縮モデルは汎用的であり,特別なハードウェア/ソフトウェアのサポートは不要である。
論文 参考訳(メタデータ) (2020-01-15T20:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。