論文の概要: Self-Supervised Monocular Depth Estimation with Self-Reference
Distillation and Disparity Offset Refinement
- arxiv url: http://arxiv.org/abs/2302.09789v1
- Date: Mon, 20 Feb 2023 06:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 16:37:47.879311
- Title: Self-Supervised Monocular Depth Estimation with Self-Reference
Distillation and Disparity Offset Refinement
- Title(参考訳): 自己参照蒸留とパリティオフセット補正を用いた自己教師付き単眼深度推定
- Authors: Zhong Liu, Ran Li, Shuwei Shao, Xingming Wu and Weihai Chen
- Abstract要約: 自己教師付き単分子深度推定を改善するための2つの新しいアイデアを提案する。
我々は,教師が訓練の時期に合わせて更新したパラメータ最適化モデルを用いて,さらなる指導を行う。
我々は,高次特徴量と低次特徴量とのコンテキスト整合性を利用して,マルチスケールの相違オフセットを得る。
- 参考スコア(独自算出の注目度): 15.012694052674899
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Monocular depth estimation plays a fundamental role in computer vision. Due
to the costly acquisition of depth ground truth, self-supervised methods that
leverage adjacent frames to establish a supervisory signal have emerged as the
most promising paradigms. In this work, we propose two novel ideas to improve
self-supervised monocular depth estimation: 1) self-reference distillation and
2) disparity offset refinement. Specifically, we use a parameter-optimized
model as the teacher updated as the training epochs to provide additional
supervision during the training process. The teacher model has the same
structure as the student model, with weights inherited from the historical
student model. In addition, a multiview check is introduced to filter out the
outliers produced by the teacher model. Furthermore, we leverage the contextual
consistency between high-scale and low-scale features to obtain multiscale
disparity offsets, which are used to refine the disparity output incrementally
by aligning disparity information at different scales. The experimental results
on the KITTI and Make3D datasets show that our method outperforms previous
state-of-the-art competitors.
- Abstract(参考訳): 単眼深度推定はコンピュータビジョンにおいて基本的な役割を果たす。
深層地盤の真理の高コスト取得により、隣接するフレームを活用して監視信号を確立する自己監督手法が最も有望なパラダイムとして登場した。
本研究では, 自己教師付き単眼深度推定を改善するための2つの新しいアイデアを提案する。
1)自己参照蒸留及び
2)格差オフセット改良
具体的には、教師がトレーニング期間に更新したパラメータ最適化モデルを使用して、トレーニングプロセス中に追加の監督を行う。
教師モデルは学生モデルと同じ構造であり、歴史学生モデルから重みが受け継がれている。
さらに,教師モデルが生成する外れ値のフィルタリングを行うために,マルチビューチェックを導入する。
さらに,高次特徴量と低次特徴量との文脈的整合性を利用して,異なるスケールで異性情報を整列させることで,相違出力を漸進的に改善するマルチスケール異性オフセットを得る。
KITTIおよびMake3Dデータセットの実験結果から,本手法が従来の競合相手よりも優れていることが示された。
関連論文リスト
- Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - DMT: Comprehensive Distillation with Multiple Self-supervised Teachers [27.037140667247208]
プレトレーニングモデル圧縮のためのDMT(Comprehensive Distillation with Multiple Self-supervised Teachers)を提案する。
評価実験の結果,提案手法は最先端の競合相手を大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-19T08:31:30Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - Sparse Depth-Guided Attention for Accurate Depth Completion: A
Stereo-Assisted Monitored Distillation Approach [7.902840502973506]
本研究では,教師モデルとしてステレオモデルを導入し,学生モデルの深度補修精度を向上させる。
自己教師型情報提供には,多視点奥行きの整合性やマルチスケールの最小再計画も活用する。
論文 参考訳(メタデータ) (2023-03-28T09:23:19Z) - Ensemble knowledge distillation of self-supervised speech models [84.69577440755457]
蒸留自己監督モデルは近年、競争性能と効率性を示している。
We performed Ensemble Knowledge Distillation (EKD) on various self-supervised speech model, HuBERT, RobustHuBERT, WavLM。
提案手法は,4つの下流音声処理タスクにおける蒸留モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-02-24T17:15:39Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Self-Supervised Models are Continual Learners [79.70541692930108]
本研究では, 自己教師付き損失関数を連続学習のための蒸留機構にシームレスに変換可能であることを示す。
我々は,学習した表現の質を大幅に向上させる連続的自己教師型視覚表現学習の枠組みを考案した。
論文 参考訳(メタデータ) (2021-12-08T10:39:13Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z) - Self-supervised Monocular Trained Depth Estimation using Self-attention
and Discrete Disparity Volume [19.785343302320918]
本研究では,1)自己注意,2)離散的不一致予測という,自己教師付き単分子学習深度推定を改善するための2つの新しいアイデアを提案する。
これらの2つのアイデアにより、最先端の自己教師型単分子深度推定器 Monodepth2 の拡張により、KITTI 2015 と Make3D の分野で最高の結果を生み出すモデルを設計できることを示す。
論文 参考訳(メタデータ) (2020-03-31T04:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。