論文の概要: Inter-Region Affinity Distillation for Road Marking Segmentation
- arxiv url: http://arxiv.org/abs/2004.05304v1
- Date: Sat, 11 Apr 2020 04:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 12:49:26.286016
- Title: Inter-Region Affinity Distillation for Road Marking Segmentation
- Title(参考訳): 道路標識セグメンテーションにおける断面積親和性蒸留
- Authors: Yuenan Hou, Zheng Ma, Chunxiao Liu, Tak-Wai Hui, Chen Change Loy
- Abstract要約: 本研究では,大規模な教員ネットワークからより小さな学生ネットワークへ知識を蒸留する問題について検討する。
我々の手法はInter-Region Affinity KD(IntRA-KD)として知られている。
- 参考スコア(独自算出の注目度): 81.3619453527367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of distilling knowledge from a large deep teacher
network to a much smaller student network for the task of road marking
segmentation. In this work, we explore a novel knowledge distillation (KD)
approach that can transfer 'knowledge' on scene structure more effectively from
a teacher to a student model. Our method is known as Inter-Region Affinity KD
(IntRA-KD). It decomposes a given road scene image into different regions and
represents each region as a node in a graph. An inter-region affinity graph is
then formed by establishing pairwise relationships between nodes based on their
similarity in feature distribution. To learn structural knowledge from the
teacher network, the student is required to match the graph generated by the
teacher. The proposed method shows promising results on three large-scale road
marking segmentation benchmarks, i.e., ApolloScape, CULane and LLAMAS, by
taking various lightweight models as students and ResNet-101 as the teacher.
IntRA-KD consistently brings higher performance gains on all lightweight
models, compared to previous distillation methods. Our code is available at
https://github.com/cardwing/Codes-for-IntRA-KD.
- Abstract(参考訳): 道路標識セグメンテーションの課題として,大規模な深層教師ネットワークからより小さな学生ネットワークへ知識を蒸留する問題について検討する。
本研究では,教師から生徒モデルへ,より効果的に「知識」を現場構造に移せる新しい知識蒸留法(kd)について検討する。
本手法はInter-Region Affinity KD(IntRA-KD)として知られている。
与えられた道路シーン画像を異なる領域に分割し、グラフ内のノードとして各領域を表す。
次に、特徴分布の類似性に基づいて、ノード間の対関係を確立することにより、領域間の親和性グラフを形成する。
教師ネットワークから構造知識を学習するためには,教師が生成したグラフに合わせる必要がある。
提案手法は,ApolloScape,CULane,LLAMASの3つの大規模道路マーキングセグメンテーションベンチマークにおいて,学生として軽量モデルを,教師としてResNet-101を用いて有望な結果を示す。
IntRA-KDは、従来の蒸留法と比較して、すべての軽量モデルで一貫して高い性能向上をもたらす。
私たちのコードはhttps://github.com/cardwing/Codes-for-IntRA-KDで利用可能です。
関連論文リスト
- Improving Knowledge Distillation via Regularizing Feature Norm and
Direction [16.98806338782858]
知識蒸留(KD)は、大きな訓練されたモデル(例えば教師)を利用して、同じタスクのために同じデータセット上で小さな学生モデルを訓練する。
教師の特徴を知識として扱うこと、知識蒸留訓練の学生は、その特徴を教師の特徴と整合させることによって、例えば、ロジット間のKL偏差を最小化し、中間特徴間のL2距離を最小化する。
教師に対する生徒の特徴の整合性の向上は教師の知識をよりよく蒸留すると考えるのは自然なことだが、単にこの整合性を強制することは生徒のパフォーマンスに直接寄与しない。
論文 参考訳(メタデータ) (2023-05-26T15:05:19Z) - DisWOT: Student Architecture Search for Distillation WithOut Training [0.0]
我々は,教師にとって最高の学生アーキテクチャを探すための,新しい学習自由フレームワークを探究する。
我々の研究は、バニラトレーニングにおける最適モデルが蒸留の勝者にはならないことを実証的に示している。
CIFAR, ImageNet, NAS-Bench-201 を用いた実験により, 異なる検索空間における最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-03-28T01:58:45Z) - Improved knowledge distillation by utilizing backward pass knowledge in
neural networks [17.437510399431606]
知識蒸留(KD)は、モデル圧縮において重要な技術の一つである。
本研究では,教師の後方パスから知識を抽出し,新たな補助訓練サンプルを作成する。
自然言語処理(NLP)と言語理解(Language understanding)の応用において,この手法がいかにうまく利用できるかを示す。
論文 参考訳(メタデータ) (2023-01-27T22:07:38Z) - Cross-Image Relational Knowledge Distillation for Semantic Segmentation [16.0341383592071]
クロスイメージKD(CIRK)は、全画像間の構造化画素間および画素間関係の転送に焦点を当てている。
モチベーションは、優れた教師ネットワークが、グローバルなピクセル依存の観点から、よく構造化された特徴空間を構築することができることである。
CIRKにより、学生は教師とのより優れた構造的関係を模倣し、セグメンテーション性能を向上させる。
論文 参考訳(メタデータ) (2022-04-14T14:24:19Z) - Mosaicking to Distill: Knowledge Distillation from Out-of-Domain Data [56.29595334715237]
知識蒸留(KD)は,対象領域における教師の行動を模倣する,コンパクトな学生モデルを構築することを目的としている。
私たちは、astextitMosaicKDと呼ばれる便利だが驚くほど効果的なアプローチを導入しました。
モザイクKDでは、ジェネレータ、識別器、学生ネットワークを対角的に総合的に訓練する4人プレイのmin-maxゲームによってこれを達成している。
論文 参考訳(メタデータ) (2021-10-27T13:01:10Z) - Graph Consistency based Mean-Teaching for Unsupervised Domain Adaptive
Person Re-Identification [54.58165777717885]
本論文では,教師ネットワークと学生ネットワークの間にGCC(Graph Consistency Constraint)を構築するためのGCMT(Graph Consistency Based Mean-Teaching)手法を提案する。
マーケット-1501、デュークMTMCreID、MSMT17の3つのデータセットの実験により、提案されたGCMTは最先端の手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-11T04:09:49Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - Channel-wise Knowledge Distillation for Dense Prediction [73.99057249472735]
本稿では,学生ネットワークと教師ネットワークのチャンネルワイズ機能について提案する。
様々なネットワーク構造を持つ3つのベンチマークにおいて、一貫して優れた性能を実現している。
論文 参考訳(メタデータ) (2020-11-26T12:00:38Z) - Distilling Knowledge from Graph Convolutional Networks [146.71503336770886]
既存の知識蒸留法は畳み込みニューラルネットワーク(CNN)に焦点を当てている
本稿では,事前学習したグラフ畳み込みネットワーク(GCN)モデルから知識を抽出する手法を提案する。
提案手法は,GCNモデルに対する最先端の知識蒸留性能を実現する。
論文 参考訳(メタデータ) (2020-03-23T18:23:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。