論文の概要: Label-guided Attention Distillation for Lane Segmentation
- arxiv url: http://arxiv.org/abs/2304.01636v1
- Date: Tue, 4 Apr 2023 08:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 14:36:47.473579
- Title: Label-guided Attention Distillation for Lane Segmentation
- Title(参考訳): ラベル付き注意蒸留による車線分節化
- Authors: Zhikang Liu, Lanyun Zhu
- Abstract要約: トレーニングセグメンテーションネットワークにおいてラベル構造を利用する手法を提案する。
提案法は Label-Guided Attention Distillation (LGAD) と命名される。
- 参考スコア(独自算出の注目度): 1.6498361958317633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary segmentation methods are usually based on deep fully
convolutional networks (FCNs). However, the layer-by-layer convolutions with a
growing receptive field is not good at capturing long-range contexts such as
lane markers in the scene. In this paper, we address this issue by designing a
distillation method that exploits label structure when training segmentation
network. The intuition is that the ground-truth lane annotations themselves
exhibit internal structure. We broadcast the structure hints throughout a
teacher network, i.e., we train a teacher network that consumes a lane label
map as input and attempts to replicate it as output. Then, the attention maps
of the teacher network are adopted as supervisors of the student segmentation
network. The teacher network, with label structure information embedded, knows
distinctly where the convolution layers should pay visual attention into. The
proposed method is named as Label-guided Attention Distillation (LGAD). It
turns out that the student network learns significantly better with LGAD than
when learning alone. As the teacher network is deprecated after training, our
method do not increase the inference time. Note that LGAD can be easily
incorporated in any lane segmentation network.
- Abstract(参考訳): 現代のセグメンテーション手法は通常、深い完全畳み込みネットワーク(fcns)に基づいている。
しかし, 層間畳み込みと受容界の増大は, シーン中のレーンマーカーなどの長距離コンテキストを捉えるのに適していない。
本稿では,セグメンテーションネットワークを訓練する際にラベル構造を利用する蒸留法を考案し,この問題に対処する。
直感的には、地平線アノテーション自体が内部構造を示す。
教師ネットワーク全体,すなわち,レーンラベルマップを入力として利用する教師ネットワークをトレーニングし,それを出力として再現しようとする。
そして、教師ネットワークの注意マップを学生セグメンテーションネットワークの管理者として採用する。
教師ネットワークはラベル構造情報を組み込んでおり、畳み込み層が視覚的に注意を払うべき場所をはっきりと把握している。
提案法は Label-Guided Attention Distillation (LGAD) と名付けられた。
学生ネットワークは、単独で学ぶよりもLGADでかなり良く学習されている。
教師ネットワークはトレーニング後に非推奨になるため,提案手法は推論時間を増加させない。
LGADは任意のレーンセグメンテーションネットワークに容易に組み込むことができる。
関連論文リスト
- Repainting and Imitating Learning for Lane Detection [52.5220065495956]
現行の車線検出手法は、重い影による視認性車線問題に苦慮している。
本稿では,教師と学生のペアを含む新しいリペイント・イミメーティング学習フレームワークを提案する。
提案手法は,推定中に余分な時間的コストを伴わず,様々な最先端車線検出ネットワークでプラグアンドプレイが可能となる。
論文 参考訳(メタデータ) (2022-10-11T02:26:39Z) - Bi-directional Weakly Supervised Knowledge Distillation for Whole Slide
Image Classification [9.43604501642743]
本稿では,WSI分類のための弱監督型知識蒸留フレームワーク(WENO)を提案する。
本稿では,WSI分類のための弱教師付き知識蒸留フレームワークWENOを提案する。
論文 参考訳(メタデータ) (2022-10-07T16:12:04Z) - PathFinder: Discovering Decision Pathways in Deep Neural Networks [10.914300987810126]
同じクラスのインスタンスが、レイヤ上の少数のクラスタシーケンスに従っていることに気付き、決定パスを名付けています。
このようなパスは、分類決定が通常どのように行われるかを説明し、また、異常なパスに従う外れ値を決定するのにも役立ちます。
我々は、MNISTとCELEBで訓練された2つのフィードフォワードネットワークと、PenDigitsで訓練された1つの繰り返しネットワークを用いて、本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-10-01T16:49:55Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Graph Consistency based Mean-Teaching for Unsupervised Domain Adaptive
Person Re-Identification [54.58165777717885]
本論文では,教師ネットワークと学生ネットワークの間にGCC(Graph Consistency Constraint)を構築するためのGCMT(Graph Consistency Based Mean-Teaching)手法を提案する。
マーケット-1501、デュークMTMCreID、MSMT17の3つのデータセットの実験により、提案されたGCMTは最先端の手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-11T04:09:49Z) - Knowledge Distillation in Wide Neural Networks: Risk Bound, Data
Efficiency and Imperfect Teacher [40.74624021934218]
知識蒸留は、教師ネットワークからのソフトアウトプットのガイドで学生ネットワークを訓練する戦略である。
ニューラル・タンジェント・カーネルの最近の発見により、ネットワークのランダムな特徴の線形モデルを用いて、広いニューラルネットワークを近似することができる。
論文 参考訳(メタデータ) (2020-10-20T07:33:21Z) - TopoAL: An Adversarial Learning Approach for Topology-Aware Road
Segmentation [56.353558147044]
我々は,我々の目的に合わせたAL(Adversarial Learning)戦略を導入する。
我々は,道路網のどの部分が正しいかを示すラベルピラミッドを返す,より洗練された識別器を使用している。
挑戦的なRoadTracerデータセットでは、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2020-07-17T16:06:45Z) - Inter-Region Affinity Distillation for Road Marking Segmentation [81.3619453527367]
本研究では,大規模な教員ネットワークからより小さな学生ネットワークへ知識を蒸留する問題について検討する。
我々の手法はInter-Region Affinity KD(IntRA-KD)として知られている。
論文 参考訳(メタデータ) (2020-04-11T04:26:37Z) - Distilling Knowledge from Graph Convolutional Networks [146.71503336770886]
既存の知識蒸留法は畳み込みニューラルネットワーク(CNN)に焦点を当てている
本稿では,事前学習したグラフ畳み込みネットワーク(GCN)モデルから知識を抽出する手法を提案する。
提案手法は,GCNモデルに対する最先端の知識蒸留性能を実現する。
論文 参考訳(メタデータ) (2020-03-23T18:23:11Z) - Feature-map-level Online Adversarial Knowledge Distillation [36.42703358752526]
本稿では,クラス確率の知識だけでなく,特徴マップの知識を伝達するオンライン知識蒸留法を提案する。
異なるネットワークの特徴マップ分布を識別するために,識別器を用いて複数のネットワークを同時に訓練する。
本手法は,L1などの従来の直接アライメント法よりも優れた性能を示し,オンライン蒸留に適していることを示す。
論文 参考訳(メタデータ) (2020-02-05T13:16:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。