論文の概要: Lightweight Alpha Matting Network Using Distillation-Based Channel
Pruning
- arxiv url: http://arxiv.org/abs/2210.07760v1
- Date: Fri, 14 Oct 2022 12:48:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:00:41.126922
- Title: Lightweight Alpha Matting Network Using Distillation-Based Channel
Pruning
- Title(参考訳): 蒸留系チャネルプルーニングを用いた軽量アルファマッティングネットワーク
- Authors: Donggeun Yoon, Jinsun Park, Donghyeon Cho
- Abstract要約: 提案手法による軽量なアルファマッチングモデルは,既存の軽量な手法よりも優れている。
提案手法は, セマンティックセグメンテーションに適用することで, 提案手法の汎用性を実証する。
- 参考スコア(独自算出の注目度): 23.940205170296185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, alpha matting has received a lot of attention because of its
usefulness in mobile applications such as selfies. Therefore, there has been a
demand for a lightweight alpha matting model due to the limited computational
resources of commercial portable devices. To this end, we suggest a
distillation-based channel pruning method for the alpha matting networks. In
the pruning step, we remove channels of a student network having fewer impacts
on mimicking the knowledge of a teacher network. Then, the pruned lightweight
student network is trained by the same distillation loss. A lightweight alpha
matting model from the proposed method outperforms existing lightweight
methods. To show superiority of our algorithm, we provide various quantitative
and qualitative experiments with in-depth analyses. Furthermore, we demonstrate
the versatility of the proposed distillation-based channel pruning method by
applying it to semantic segmentation.
- Abstract(参考訳): 最近のalpha mattingは、セルフィーのようなモバイルアプリケーションで有用であるため、多くの注目を集めている。
そのため,商用携帯端末の計算資源が限られているため,軽量なアルファマッチングモデルが求められている。
この目的のために,アルファマッティングネットワークのための蒸留式チャネルプルーニング法を提案する。
刈り取りステップでは,教師ネットワークの知識を模倣する影響が少ない学生ネットワークのチャネルを除去する。
そして、切断された軽量の学生ネットワークを同じ蒸留損失で訓練する。
提案手法の軽量アルファマットモデルは,既存の軽量メソッドよりも優れている。
アルゴリズムの優越性を示すため,詳細な分析を行い,定量的・質的実験を行った。
さらに,提案手法をセマンティックセグメンテーションに適用することにより,提案手法の汎用性を実証した。
関連論文リスト
- Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - AICSD: Adaptive Inter-Class Similarity Distillation for Semantic
Segmentation [12.92102548320001]
本稿では,知識蒸留を目的としたICSD (Inter-Class similarity Distillation) を提案する。
提案手法は,教師ネットワークから生徒ネットワークへの高次関係を,ネットワーク出力から各クラス毎のクラス内分布を独立に計算することによって伝達する。
セマンティックセグメンテーションのためのよく知られた2つのデータセットであるCityscapesとPascal VOC 2012の実験により、提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2023-08-08T13:17:20Z) - Teacher Agent: A Knowledge Distillation-Free Framework for
Rehearsal-based Video Incremental Learning [29.52218286906986]
リハーサルベースのビデオインクリメンタル学習は、しばしば知識蒸留を用いて、以前に学習したデータの破滅的な忘れを軽減している。
テキスト教師エージェントと呼ばれるリハーサルベースのビデオインクリメンタル学習のための知識蒸留自由フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-01T06:54:56Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Class-aware Information for Logit-based Knowledge Distillation [16.634819319915923]
そこで本研究では,ロジット蒸留をインスタンスレベルとクラスレベルの両方で拡張する,クラス対応ロジット知識蒸留法を提案する。
CLKDにより、教師モデルからより高度な意味情報を模倣し、蒸留性能を向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T09:27:50Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - Adaptive Distillation: Aggregating Knowledge from Multiple Paths for
Efficient Distillation [15.337420940135704]
ニューラルネットワーク圧縮アルゴリズムの主なトレンドの1つに、知識蒸留がある。
本稿では,マルチタスク学習に基づく適応手法を提案する。
本稿では, 知識蒸留の分類, セマンティックセグメンテーション, オブジェクト検出タスクへの応用について, 他のベースラインに対する提案手法の有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-10-19T00:57:40Z) - Lipschitz Continuity Guided Knowledge Distillation [44.77558919044394]
本稿では,リプシッツ連続性誘導知識蒸留フレームワークを提案する。
我々は、リプシッツ定数を計算するNPハード問題に対処するために、明示的な理論的導出を持つ説明可能な近似アルゴリズムを導出する。
実験結果から,本手法はいくつかの知識蒸留作業において,他のベンチマークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-29T20:19:34Z) - Channel-wise Knowledge Distillation for Dense Prediction [73.99057249472735]
本稿では,学生ネットワークと教師ネットワークのチャンネルワイズ機能について提案する。
様々なネットワーク構造を持つ3つのベンチマークにおいて、一貫して優れた性能を実現している。
論文 参考訳(メタデータ) (2020-11-26T12:00:38Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。