論文の概要: Dynamic Knowledge Distillation with A Single Stream Structure for
RGB-DSalient Object Detection
- arxiv url: http://arxiv.org/abs/2106.09517v1
- Date: Thu, 17 Jun 2021 14:07:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 15:49:53.267193
- Title: Dynamic Knowledge Distillation with A Single Stream Structure for
RGB-DSalient Object Detection
- Title(参考訳): RGB-DSalientオブジェクト検出のための単一ストリーム構造を用いた動的知識蒸留
- Authors: Guangyu Ren, Tania Stathaki
- Abstract要約: RGB-D Salient Object Detection (SOD) は複雑な環境における検出においてその優位性を示す。
深度画像から特徴を抽出するために独立したストリームが導入され、余分な計算とパラメータが導かれる。
本稿では, 動的蒸留法と軽量な枠組みを併用し, パラメータを大幅に削減する手法を提案する。
- 参考スコア(独自算出の注目度): 8.57914821832517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D salient object detection(SOD) demonstrates its superiority on detecting
in complex environments due to the additional depth information introduced in
the data. Inevitably, an independent stream is introduced to extract features
from depth images, leading to extra computation and parameters. This
methodology which sacrifices the model size to improve the detection accuracy
may impede the practical application of SOD problems. To tackle this dilemma,
we propose a dynamic distillation method along with a lightweight framework,
which significantly reduces the parameters. This method considers the factors
of both teacher and student performance within the training stage and
dynamically assigns the distillation weight instead of applying a fixed weight
on the student model. Extensive experiments are conducted on five public
datasets to demonstrate that our method can achieve competitive performance
compared to 10 prior methods through a 78.2MB lightweight structure.
- Abstract(参考訳): RGB-D Salient Object Detection (SOD) は、データに付加された深度情報により、複雑な環境における検出において、その優位性を示す。
必然的に、深度画像から特徴を抽出するために独立したストリームが導入され、余分な計算とパラメータが導かれる。
モデルサイズを犠牲にして検出精度を向上させる手法は,SOD問題の実用化を阻害する可能性がある。
このジレンマに対処するため,軽量な枠組みとともに動的蒸留法を提案し,パラメータを著しく低減した。
本手法は, 研修段階における教員と学生のパフォーマンスの要因を考察し, 学生モデルに一定重量を適用するのではなく, 蒸留重量を動的に割り当てる。
5つの公開データセットで広範な実験を行い、78.2mbの軽量構造で10の以前の方法と比較して、この手法が競合性能を発揮できることを実証した。
関連論文リスト
- Domain-invariant Progressive Knowledge Distillation for UAV-based Object Detection [13.255646312416532]
UAV-ODのための新しい知識蒸留フレームワークを提案する。
具体的には, プログレッシブ蒸留法により, 教師モデルと学生モデルの特徴ギャップを緩和する。
学生モデルの知識受容効率を高めるために,対象物に関連する特徴を抽出する新たな特徴アライメント法が提供される。
論文 参考訳(メタデータ) (2024-08-21T08:05:03Z) - Depth-discriminative Metric Learning for Monocular 3D Object Detection [14.554132525651868]
本稿では,視覚的属性に関係なく,モデルが深度識別的特徴を抽出することを奨励する新しい計量学習手法を提案する。
本手法は, 各種ベースラインの性能を平均23.51%, 5.78%向上させる。
論文 参考訳(メタデータ) (2024-01-02T07:34:09Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Knowledge Diffusion for Distillation [53.908314960324915]
知識蒸留(KD)における教師と学生の表現ギャップ
これらの手法の本質は、ノイズ情報を捨て、その特徴の貴重な情報を蒸留することである。
DiffKDと呼ばれる新しいKD手法を提案し、拡散モデルを用いて特徴を明示的に識別し一致させる。
論文 参考訳(メタデータ) (2023-05-25T04:49:34Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Dense Depth Distillation with Out-of-Distribution Simulated Images [30.79756881887895]
単分子深度推定(MDE)のためのデータフリー知識蒸留(KD)について検討する。
KDは、訓練された教師モデルからそれを圧縮し、対象領域でのトレーニングデータを欠くことにより、現実世界の深度知覚タスクの軽量モデルを学ぶ。
提案手法は, トレーニング画像の1/6に留まらず, ベースラインKDのマージンが良好であり, 性能も若干向上していることを示す。
論文 参考訳(メタデータ) (2022-08-26T07:10:01Z) - Knowledge Distillation for Oriented Object Detection on Aerial Images [1.827510863075184]
本稿では,KD-RNetの知識蒸留による空中画像の回転物体検出のためのモデル圧縮手法を提案する。
大規模空中物体検出データセット(DOTA)による実験結果から,提案したKD-RNetモデルにより,パラメータ数を削減した平均値精度(mAP)が向上し,同時にKD-RNetは,基底アノテーションと高い重なり合う高品質検出を提供することで,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T14:24:16Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。