論文の概要: EvDistill: Asynchronous Events to End-task Learning via Bidirectional
Reconstruction-guided Cross-modal Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2111.12341v1
- Date: Wed, 24 Nov 2021 08:48:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 20:23:17.437027
- Title: EvDistill: Asynchronous Events to End-task Learning via Bidirectional
Reconstruction-guided Cross-modal Knowledge Distillation
- Title(参考訳): EvDistill:双方向再構成誘導クロスモーダル知識蒸留によるエンドタスク学習の非同期イベント
- Authors: Lin Wang, Yujeong Chae, Sung-Hoon Yoon, Tae-Kyun Kim and Kuk-Jin Yoon
- Abstract要約: イベントカメラは画素ごとの強度変化を感知し、ダイナミックレンジが高く、動きのぼやけが少ない非同期イベントストリームを生成する。
本稿では,bfEvDistillと呼ばれる新しい手法を提案し,未ラベルのイベントデータから学生ネットワークを学習する。
EvDistillは、イベントとAPSフレームのみのKDよりもはるかに優れた結果が得られることを示す。
- 参考スコア(独自算出の注目度): 61.33010904301476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras sense per-pixel intensity changes and produce asynchronous
event streams with high dynamic range and less motion blur, showing advantages
over conventional cameras. A hurdle of training event-based models is the lack
of large qualitative labeled data. Prior works learning end-tasks mostly rely
on labeled or pseudo-labeled datasets obtained from the active pixel sensor
(APS) frames; however, such datasets' quality is far from rivaling those based
on the canonical images. In this paper, we propose a novel approach, called
\textbf{EvDistill}, to learn a student network on the unlabeled and unpaired
event data (target modality) via knowledge distillation (KD) from a teacher
network trained with large-scale, labeled image data (source modality). To
enable KD across the unpaired modalities, we first propose a bidirectional
modality reconstruction (BMR) module to bridge both modalities and
simultaneously exploit them to distill knowledge via the crafted pairs, causing
no extra computation in the inference. The BMR is improved by the end-tasks and
KD losses in an end-to-end manner. Second, we leverage the structural
similarities of both modalities and adapt the knowledge by matching their
distributions. Moreover, as most prior feature KD methods are uni-modality and
less applicable to our problem, we propose to leverage an affinity graph KD
loss to boost the distillation. Our extensive experiments on semantic
segmentation and object recognition demonstrate that EvDistill achieves
significantly better results than the prior works and KD with only events and
APS frames.
- Abstract(参考訳): イベントカメラは画素ごとの強度変化を感知し、ダイナミックレンジが高く、動きのぼやけが少ない非同期イベントストリームを生成する。
イベントベースのモデルをトレーニングするハードルは、大きな定性的ラベル付きデータがないことだ。
先行研究 エンドタスクの学習は、主にアクティブピクセルセンサ(aps)フレームから得られるラベル付きまたは擬似ラベル付きデータセットに依存しているが、このようなデータセットの品質は、標準画像に基づくデータセットに匹敵するものではない。
本稿では,大規模なラベル付き画像データ(ソースモダリティ)を学習した教師ネットワークから,知識蒸留(KD)を通して,未ラベルのイベントデータ(ターゲットモダリティ)の学生ネットワークを学習するための,‘textbf{EvDistill}’という新しいアプローチを提案する。
両モダリティを橋渡しする双方向モダリティ再構成 (BMR) モジュールを試作し, 両モダリティを橋渡しし, 両モダリティを同時に利用して知識を抽出し, 推論に余分な計算を行わないことを示す。
BMRは、エンドタスクとKD損失によってエンドツーエンドで改善される。
第2に,両方のモダリティの構造的類似性を活用し,その分布を一致させることで知識を適応させる。
さらに, 従来のKD法は一様であり, この問題には適用できないため, 親和性グラフKD損失を利用して蒸留量を増加させることを提案する。
セマンティックセグメンテーションとオブジェクト認識に関する広範な実験により、EvDistillは以前の作業とイベントとAPSフレームのみを用いたKDよりもはるかに優れた結果が得られることが示された。
関連論文リスト
- Relational Representation Distillation [6.24302896438145]
本稿では,教師モデルと学生モデルの関係を探求し,強化するためにRepresentation Distillation (RRD)を導入する。
自己監督学習の原則に触発されて、正確な複製と類似性に焦点を当てた、リラックスした対照的な損失を使用する。
我々は,CIFAR-100とImageNet ILSVRC-2012において優れた性能を示し,KDと組み合わせた場合,教師ネットワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-16T14:56:13Z) - Deep Boosting Learning: A Brand-new Cooperative Approach for Image-Text Matching [53.05954114863596]
画像テキストマッチングのための新しいDeep Boosting Learning (DBL)アルゴリズムを提案する。
アンカーブランチは、まずデータプロパティに関する洞察を提供するために訓練される。
ターゲットブランチは、一致したサンプルと未一致のサンプルとの相対距離をさらに拡大するために、より適応的なマージン制約を同時に課される。
論文 参考訳(メタデータ) (2024-04-28T08:44:28Z) - Robustness-Reinforced Knowledge Distillation with Correlation Distance
and Network Pruning [3.1423836318272773]
知識蒸留(KD)は、効率的で軽量なモデルの性能を向上させる。
既存のKD技術のほとんどは、Kulback-Leibler(KL)の発散に依存している。
相関距離とネットワークプルーニングを利用したロバストネス強化知識蒸留(R2KD)を提案する。
論文 参考訳(メタデータ) (2023-11-23T11:34:48Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Dense Depth Distillation with Out-of-Distribution Simulated Images [30.79756881887895]
単分子深度推定(MDE)のためのデータフリー知識蒸留(KD)について検討する。
KDは、訓練された教師モデルからそれを圧縮し、対象領域でのトレーニングデータを欠くことにより、現実世界の深度知覚タスクの軽量モデルを学ぶ。
提案手法は, トレーニング画像の1/6に留まらず, ベースラインKDのマージンが良好であり, 性能も若干向上していることを示す。
論文 参考訳(メタデータ) (2022-08-26T07:10:01Z) - CMD: Self-supervised 3D Action Representation Learning with Cross-modal
Mutual Distillation [130.08432609780374]
3D行動認識では、骨格のモダリティの間に豊富な相補的な情報が存在する。
本稿では,CMD(Cross-modal Mutual Distillation)フレームワークを提案する。
提案手法は,既存の自己管理手法より優れ,新しい記録を多数設定する。
論文 参考訳(メタデータ) (2022-08-26T06:06:09Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Dual Transfer Learning for Event-based End-task Prediction via Pluggable
Event to Image Translation [33.28163268182018]
イベントカメラは、ピクセルごとの強度変化を認識し、ダイナミックレンジが高く、動きのぼやけが少ない非同期イベントストリームを出力する。
イベントは、エンコーダ・デコーダのようなネットワークに基づいて、エンドタスク学習、例えばセマンティックセグメンテーションにのみ使用できることが示されている。
本稿では,DTL(Dual Transfer Learning)と呼ばれるシンプルで柔軟な2ストリームフレームワークを提案し,エンドタスクの性能を効果的に向上させる。
論文 参考訳(メタデータ) (2021-09-04T06:49:09Z) - Knowledge Distillation Thrives on Data Augmentation [65.58705111863814]
知識蒸留(KD)は、教師モデルを用いて学生モデルをガイドする一般的なディープニューラルネットワークトレーニングフレームワークである。
多くの研究がその成功の根拠を探っているが、データ強化(DA)との相互作用は未だよく認識されていない。
本稿では,KD損失は,クロスエントロピー損失を伴わないが,拡張トレーニングイテレーションの恩恵を受けることができることを示す。
KD損失は、DAがもたらす異なる入力ビューから余分な情報をタップすることができる。
論文 参考訳(メタデータ) (2020-12-05T00:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。