論文の概要: Multi-Granularity Distillation Scheme Towards Lightweight
Semi-Supervised Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2208.10169v1
- Date: Mon, 22 Aug 2022 09:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 13:35:02.169881
- Title: Multi-Granularity Distillation Scheme Towards Lightweight
Semi-Supervised Semantic Segmentation
- Title(参考訳): 軽量半教師付きセマンティクスセグメンテーションに向けた多粒度蒸留法
- Authors: Jie Qin, Jie Wu, Ming Li, Xuefeng Xiao, Min Zheng, Xingang Wang
- Abstract要約: 我々は,新しい多粒度蒸留方式(MGD)による軽量セミスーパービジョン・セマンティックス(SSSS)モデルの提供に向けた最初の試みを提供する。
MGDはラベル付き未ラベルのデータ協調蒸留方式として定式化され、多様なデータ特性を最大限に活用するのに役立つ。
PASCAL2012とCityscapesの実験結果から、MGDは多様なパーティションプロトコルの下で大きなマージンで競合するアプローチより優れていることが判明した。
- 参考スコア(独自算出の注目度): 33.36652973690884
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Albeit with varying degrees of progress in the field of Semi-Supervised
Semantic Segmentation, most of its recent successes are involved in unwieldy
models and the lightweight solution is still not yet explored. We find that
existing knowledge distillation techniques pay more attention to pixel-level
concepts from labeled data, which fails to take more informative cues within
unlabeled data into account. Consequently, we offer the first attempt to
provide lightweight SSSS models via a novel multi-granularity distillation
(MGD) scheme, where multi-granularity is captured from three aspects: i)
complementary teacher structure; ii) labeled-unlabeled data cooperative
distillation; iii) hierarchical and multi-levels loss setting. Specifically,
MGD is formulated as a labeled-unlabeled data cooperative distillation scheme,
which helps to take full advantage of diverse data characteristics that are
essential in the semi-supervised setting. Image-level semantic-sensitive loss,
region-level content-aware loss, and pixel-level consistency loss are set up to
enrich hierarchical distillation abstraction via structurally complementary
teachers. Experimental results on PASCAL VOC2012 and Cityscapes reveal that MGD
can outperform the competitive approaches by a large margin under diverse
partition protocols. For example, the performance of ResNet-18 and MobileNet-v2
backbone is boosted by 11.5% and 4.6% respectively under 1/16 partition
protocol on Cityscapes. Although the FLOPs of the model backbone is compressed
by 3.4-5.3x (ResNet-18) and 38.7-59.6x (MobileNetv2), the model manages to
achieve satisfactory segmentation results.
- Abstract(参考訳): セミスーパービジョンセマンティックセグメンテーションの分野での進歩の度合いは様々であるが、最近の成功の多くは未解決のモデルに関わっており、軽量解はまだ研究されていない。
既存の知識蒸留技術はラベル付きデータからピクセルレベルの概念により多くの注意を払っているため、ラベル付きデータの中でより有益な手がかりを必要としない。
その結果、我々は、新しい多粒度蒸留(MGD)方式による軽量SSSSモデルを初めて提供し、多粒度を3つの側面から捉えた。
一 相補的な教員構造
二 ラベル付き未表示のデータ協同蒸留
三 階層的及び多段階的損失設定
特に、mgdはラベルなしのデータ協調蒸留スキームとして定式化されており、半教師あり設定で必須となる多様なデータ特性を最大限に活用するのに役立つ。
画像レベルのセマンティクス感受性損失、領域レベルのコンテントアウェアロス、ピクセルレベルの一貫性損失は、構造的に相補的な教師を通して階層的な蒸留抽象化を強化するために設定される。
PASCAL VOC2012とCityscapesの実験結果から、MGDは多様なパーティションプロトコルの下で大きなマージンで競合するアプローチより優れていることが明らかになった。
例えば、ResNet-18とMobileNet-v2のバックボーンのパフォーマンスは、Cityscapesの1/16パーティションプロトコルでそれぞれ11.5%と4.6%向上している。
モデルバックボーンのFLOPは3.4-5.3x(ResNet-18)と38.7-59.6x(MobileNetv2)で圧縮されるが、良好なセグメンテーション結果が得られる。
関連論文リスト
- 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - Hierarchical Point-based Active Learning for Semi-supervised Point Cloud
Semantic Segmentation [48.40853126077237]
大規模ポイントクラウドデータをポイントワイドラベルで取得することは、労働集約的だ。
アクティブラーニングは、この目的を達成するための効果的な戦略の1つだが、まだ探索されていない。
本稿では,階層的なポイントベースアクティブラーニング戦略を開発する。
論文 参考訳(メタデータ) (2023-08-22T03:52:05Z) - Coupling Global Context and Local Contents for Weakly-Supervised
Semantic Segmentation [54.419401869108846]
Weakly Supervised Semantic (WSSS)モデルを提案する。
グローバルなオブジェクトコンテキストを異なる粒度空間でキャプチャするために,フレキシブルなコンテキストアグリゲーションモジュールを提案する。
局所的な細粒度を集約するために、ボトムアップパラメータ学習可能な方法で意味的に一貫した特徴融合モジュールを提案する。
論文 参考訳(メタデータ) (2023-04-18T15:29:23Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Dual Adaptive Transformations for Weakly Supervised Point Cloud
Segmentation [78.6612285236938]
弱制御点雲分割のための新しいDATモデル(textbfDual textbfAdaptive textbfTransformations)を提案する。
我々は,大規模S3DISデータセットとScanNet-V2データセットの2つの人気バックボーンを用いたDATモデルの評価を行った。
論文 参考訳(メタデータ) (2022-07-19T05:43:14Z) - Point-to-Voxel Knowledge Distillation for LiDAR Semantic Segmentation [74.67594286008317]
本稿では,大きな教師モデルから,LiDARセマンティックセグメンテーションのためのスリムな学生ネットワークへの知識の抽出の問題に対処する。
本稿では,点レベルとボクセルレベルの両方から隠れた知識を伝達するPVDを提案する。
論文 参考訳(メタデータ) (2022-06-05T05:28:32Z) - Deep Co-supervision and Attention Fusion Strategy for Automatic COVID-19
Lung Infection Segmentation on CT Images [1.898617934078969]
本稿では,CT画像上でのCOVID-19感染に対する新たなセグメンテーション手法を提案する。
エッジとセマンティクスの特徴をネットワークで学習する上での深い協調管理手法を提案する。
提案手法の有効性は, 新型コロナウイルスの4つのCTデータセットで実証された。
論文 参考訳(メタデータ) (2021-12-20T07:32:39Z) - Double Similarity Distillation for Semantic Image Segmentation [18.397968199629215]
本稿では,既存のコンパクトネットワークの分類精度を向上させるために,DSD(Double similarity distillation)と呼ばれる知識蒸留フレームワークを提案する。
具体的には,より詳細な空間依存性を捉えるために,残像マップを用いたPSD(Pixel-wise similarity distillation)モジュールを提案する。
セグメンテーションタスクとコンピュータビジョンタスクの特徴の違いを考慮し,カテゴリワイド類似度蒸留(CSD)モジュールを提案する。
論文 参考訳(メタデータ) (2021-07-19T02:45:13Z) - Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for
Semantic Segmentation [34.790169990156684]
私たちは、少数のラベル付きターゲットデータと大量のラベル付きソースデータが利用可能である半監視ドメイン適応(SSDA)のより実用的な設定に焦点を当てています。
領域レベルとサンプルレベルのドメインギャップを低減する2種類のデータミキシング手法を提案する。
総合的視点と部分的視点から2段階の混合データに基づいて,2つの相補的ドメイン混合教師を得ることができる。
論文 参考訳(メタデータ) (2021-03-08T12:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。