論文の概要: SUB-Depth: Self-distillation and Uncertainty Boosting Self-supervised
Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2111.09692v2
- Date: Fri, 19 Nov 2021 11:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 12:26:53.453041
- Title: SUB-Depth: Self-distillation and Uncertainty Boosting Self-supervised
Monocular Depth Estimation
- Title(参考訳): 亜深度:自己蒸留と不確かさ向上による自己監督単眼深度推定
- Authors: Hang Zhou, Sarah Taylor, David Greenwood
- Abstract要約: SUB-Depthは、自己教師付き単眼深度推定のための普遍的なマルチタスクトレーニングフレームワークである。
サブDepthは、画像再構成タスクの深度マップを予測するだけでなく、学習した教師ネットワークから学習した知識を未学習のデータで抽出するために、深度ネットワークを訓練する。
提案するフレームワークを用いて,既存のネットワークをトレーニングすることで達成した改善を実証するために,KITTIに関する広範囲な評価を行った。
- 参考スコア(独自算出の注目度): 12.874712571149725
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose SUB-Depth, a universal multi-task training framework for
self-supervised monocular depth estimation (SDE). Depth models trained with
SUB-Depth outperform the same models trained in a standard single-task SDE
framework. By introducing an additional self-distillation task into a standard
SDE training framework, SUB-Depth trains a depth network, not only to predict
the depth map for an image reconstruction task, but also to distill knowledge
from a trained teacher network with unlabelled data. To take advantage of this
multi-task setting, we propose homoscedastic uncertainty formulations for each
task to penalize areas likely to be affected by teacher network noise, or
violate SDE assumptions. We present extensive evaluations on KITTI to
demonstrate the improvements achieved by training a range of existing networks
using the proposed framework, and we achieve state-of-the-art performance on
this task. Additionally, SUB-Depth enables models to estimate uncertainty on
depth output.
- Abstract(参考訳): 自己教師付き単眼深度推定(SDE)のための汎用マルチタスクトレーニングフレームワークであるSUB-Depthを提案する。
SUB-Depthでトレーニングされた深度モデルは、標準のシングルタスクSDEフレームワークでトレーニングされた同じモデルより優れている。
新たな自己蒸留タスクを標準のSDEトレーニングフレームワークに導入することにより、Sub-Depthは、画像再構成タスクの深度マップを予測するだけでなく、学習した教師ネットワークから学習データを用いて知識を抽出する深度ネットワークを訓練する。
このマルチタスク設定を活用するために,教師ネットワークノイズの影響を受けやすい領域やSDEの仮定に反する領域を罰する,各タスクに対する相似不確実性定式化を提案する。
提案するフレームワークを用いて,既存のネットワークをトレーニングすることで達成された改善を実証するために,KITTIの広範な評価を行い,その課題に対して最先端の性能を実現する。
さらに、SUB-Depthは深度出力の不確かさを推定できる。
関連論文リスト
- HUWSOD: Holistic Self-training for Unified Weakly Supervised Object Detection [66.42229859018775]
我々は,HUWSOD(HuWSOD)と呼ばれる,統一・高容量弱教師付きオブジェクト検出(WSOD)ネットワークを導入する。
HUWSODには、自己管理された提案生成器と、従来のオブジェクト提案を置き換えるために、マルチレートで再構成されたピラミッドを備えたオートエンコーダ提案生成器が組み込まれている。
提案手法は,よく設計されたオフラインオブジェクト提案と大きく異なるが,WSOD訓練には有効であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Scale-Invariant Monocular Depth Estimation via SSI Depth [0.6554326244334868]
スケール不変単分子深度推定(SI MDE)の現在の手法は、タスクの複雑さのためにしばしば困難である。
本稿では,SSI入力を活用してSI深度推定を強化し,ネットワークの役割を合理化し,組込み一般化を容易にする手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:52:47Z) - Adaptive Discrete Disparity Volume for Self-supervised Monocular Depth Estimation [0.0]
本稿では,学習可能なモジュールAdaptive Discrete Disparity Volume (ADDV)を提案する。
ADDVは異なるRGB画像の深さ分布を動的に感知し、適応的なビンを生成することができる。
また、自己監督型条件下での正規化を実現するために、新しいトレーニング戦略(統一化と強化)も導入する。
論文 参考訳(メタデータ) (2024-04-04T04:22:25Z) - Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Dense Depth Distillation with Out-of-Distribution Simulated Images [30.79756881887895]
単分子深度推定(MDE)のためのデータフリー知識蒸留(KD)について検討する。
KDは、訓練された教師モデルからそれを圧縮し、対象領域でのトレーニングデータを欠くことにより、現実世界の深度知覚タスクの軽量モデルを学ぶ。
提案手法は, トレーニング画像の1/6に留まらず, ベースラインKDのマージンが良好であり, 性能も若干向上していることを示す。
論文 参考訳(メタデータ) (2022-08-26T07:10:01Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - How and When Adversarial Robustness Transfers in Knowledge Distillation? [137.11016173468457]
本稿では,教師モデルから学生モデルへの知識蒸留(KD)における対向ロバスト性の移行について検討する。
我々は,標準的なKDトレーニングが対向的堅牢性を維持するのに失敗することを示すとともに,KDIGA(入力勾配アライメント)を併用したKDを提案する。
特定の前提の下では、提案したKDIGAを用いた学生モデルは、少なくとも教師モデルと同じ確証された堅牢性を達成することができることを証明している。
論文 参考訳(メタデータ) (2021-10-22T21:30:53Z) - Pseudo Supervised Monocular Depth Estimation with Teacher-Student
Network [90.20878165546361]
疑似監視機構に基づく新しい教師なし深度推定手法を提案する。
これは、教師なしおよび教師なしの単分子深度推定の利点を戦略的に統合する。
実験の結果,提案手法はKITTIベンチマークの最先端性よりも優れていた。
論文 参考訳(メタデータ) (2021-10-22T01:08:36Z) - Self-Supervised Monocular Depth Estimation with Internal Feature Fusion [12.874712571149725]
深度推定のための自己教師付き学習は、画像列の幾何学を用いて監督する。
そこで本研究では,ダウンおよびアップサンプリングの手順で意味情報を利用することのできる,新しい深度推定ネットワークDIFFNetを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:31:11Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。