論文の概要: Monitored Distillation for Positive Congruent Depth Completion
- arxiv url: http://arxiv.org/abs/2203.16034v1
- Date: Wed, 30 Mar 2022 03:35:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 13:22:14.808960
- Title: Monitored Distillation for Positive Congruent Depth Completion
- Title(参考訳): 正一致深さ完了のためのモニター蒸留
- Authors: Tian Yu Liu and Parth Agrawal and Allison Chen and Byung-Woo Hong and
Alex Wong
- Abstract要約: 本研究では,1つの画像から深度マップ,キャリブレーション,およびそれに関連するスパース点雲を推定する手法を提案する。
そこで本研究では,提案手法を応用した適応的知識蒸留手法を提案する。
我々は、モデル選択やトレーニングのために、真実にアクセスすることができないブラインドアンサンブルのシナリオを考察する。
- 参考スコア(独自算出の注目度): 13.050141729551585
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a method to infer a dense depth map from a single image, its
calibration, and the associated sparse point cloud. In order to leverage
existing models that produce putative depth maps (teacher models), we propose
an adaptive knowledge distillation approach that yields a positive congruent
training process, where a student model avoids learning the error modes of the
teachers. We consider the scenario of a blind ensemble where we do not have
access to ground truth for model selection nor training. The crux of our
method, termed Monitored Distillation, lies in a validation criterion that
allows us to learn from teachers by choosing predictions that best minimize the
photometric reprojection error for a given image. The result of which is a
distilled depth map and a confidence map, or "monitor", for how well a
prediction from a particular teacher fits the observed image. The monitor
adaptively weights the distilled depth where, if all of the teachers exhibit
high residuals, the standard unsupervised image reconstruction loss takes over
as the supervisory signal. On indoor scenes (VOID), we outperform blind
ensembling baselines by 13.3% and unsupervised methods by 20.3%; we boast a 79%
model size reduction while maintaining comparable performance to the best
supervised method. For outdoors (KITTI), we tie for 5th overall on the
benchmark despite not using ground truth.
- Abstract(参考訳): 本研究では,1つの画像から深度マップ,キャリブレーション,および関連するスパース点雲を推定する手法を提案する。
そこで本研究では, 教師の誤りモードの学習を回避し, 学習者の学習過程を正に一致させる適応的知識蒸留手法を提案する。
我々は、モデル選択やトレーニングのために、真実にアクセスすることができないブラインドアンサンブルのシナリオを考察する。
monitored distillation(監視蒸留法)と呼ばれるこの方法は、特定の画像の測光再投影誤差を最も最小化する予測を選択することで、教師から学ぶことができるバリデーション基準に基づいている。
その結果、特定の教師からの予測が観測された画像にどの程度適合するかを示す蒸留深度マップと信頼度マップ、または「監視」となる。
モニタは蒸留深度を適応的に重み付けし、教師全員が高い残差を示した場合、標準の教師なし画像再構成損失が監督信号として引き継がれる。
室内シーン(VOID)では、ブラインドアンサンブルベースラインを13.3%、教師なしメソッドを20.3%で上回り、最高の教師付きメソッドに匹敵する性能を維持しながら、モデルサイズを79%削減した。
アウトドア(KITTI)については、地上の真実を使わずとも、ベンチマーク全体で5位にランク付けします。
関連論文リスト
- RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Sparse Depth-Guided Attention for Accurate Depth Completion: A
Stereo-Assisted Monitored Distillation Approach [7.902840502973506]
本研究では,教師モデルとしてステレオモデルを導入し,学生モデルの深度補修精度を向上させる。
自己教師型情報提供には,多視点奥行きの整合性やマルチスケールの最小再計画も活用する。
論文 参考訳(メタデータ) (2023-03-28T09:23:19Z) - Distilling Calibrated Student from an Uncalibrated Teacher [8.101116303448586]
校正されていない教師から学生を得る方法を研究する。
当社のアプローチは,カットアウトやミックスアップ,CutMixなど,データ拡張技術の融合によるものです。
従来の知識蒸留を超えて我々のアプローチを拡張し、それに適したものも見出す。
論文 参考訳(メタデータ) (2023-02-22T16:18:38Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Geometry Uncertainty Projection Network for Monocular 3D Object
Detection [138.24798140338095]
本稿では,予測および学習段階の誤り増幅問題に対処するために,幾何不確実性予測ネットワーク(GUP Net)を提案する。
具体的には, GUPモジュールを提案し, 推定深さの幾何誘導不確かさを求める。
トレーニング段階では,エラー増幅による不安定性を低減するための階層型タスク学習戦略を提案する。
論文 参考訳(メタデータ) (2021-07-29T06:59:07Z) - Beyond Self-Supervision: A Simple Yet Effective Network Distillation
Alternative to Improve Backbones [40.33419553042038]
既製のトレーニング済み大型モデルからナレッジ蒸留による既存ベースラインネットワークの改善を提案します。
本ソリューションは,教師モデルと整合した学生モデルの予測のみを駆動することにより,蒸留を行う。
例えば、MobileNetV3-large と ResNet50-D の ImageNet-1k 検証セットにおけるトップ-1 の精度は、大幅に向上できる。
論文 参考訳(メタデータ) (2021-03-10T09:32:44Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Generative Model-Based Loss to the Rescue: A Method to Overcome
Annotation Errors for Depth-Based Hand Pose Estimation [76.12736932610163]
本稿では,モデルに基づく生成損失を,ボリュームハンドモデルに基づく深度画像に基づく手ポーズ推定器の訓練に用いることを提案する。
この追加的な損失により、手振り推定器のトレーニングが可能となり、21個の手書きキーポイントのセット全体を正確に推測すると同時に、6つの手書きキーポイント(フィンガーチップと手首)の監視のみを使用する。
論文 参考訳(メタデータ) (2020-07-06T21:24:25Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。