論文の概要: FisheyeDistill: Self-Supervised Monocular Depth Estimation with Ordinal
Distillation for Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2205.02930v1
- Date: Thu, 5 May 2022 21:33:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 22:58:07.105769
- Title: FisheyeDistill: Self-Supervised Monocular Depth Estimation with Ordinal
Distillation for Fisheye Cameras
- Title(参考訳): Fisheye Distill: 魚眼カメラの常用蒸留による自己監督単眼深度推定
- Authors: Qingan Yan, Pan Ji, Nitin Bansal, Yuxin Ma, Yuan Tian, Yi Xu
- Abstract要約: 魚眼カメラの単眼深度推定を自己監督的に行う。
自己監督深度推定の既知の問題は、低照度/露光条件に苦しむことである。
そこで本研究では,大規模教師モデルから順序情報を蒸留する新規な順序蒸留損失を提案する。
- 参考スコア(独自算出の注目度): 26.695572462144064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we deal with the problem of monocular depth estimation for
fisheye cameras in a self-supervised manner. A known issue of self-supervised
depth estimation is that it suffers in low-light/over-exposure conditions and
in large homogeneous regions. To tackle this issue, we propose a novel ordinal
distillation loss that distills the ordinal information from a large teacher
model. Such a teacher model, since having been trained on a large amount of
diverse data, can capture the depth ordering information well, but lacks in
preserving accurate scene geometry. Combined with self-supervised losses, we
show that our model can not only generate reasonable depth maps in challenging
environments but also better recover the scene geometry. We further leverage
the fisheye cameras of an AR-Glasses device to collect an indoor dataset to
facilitate evaluation.
- Abstract(参考訳): 本稿では,魚眼カメラの単眼深度推定の問題を自己監視的に扱う。
自己監督深度推定の既知の問題は、低照度/オーバー露光条件や大きな均質領域で苦しむことである。
この問題に対処するために,大規模教師モデルから順序情報を蒸留する新規な順序蒸留損失を提案する。
このような教師モデルは、多種多様なデータで訓練されているため、奥行き順の情報をよく捉えることができるが、正確な風景形状を保存できない。
自己監督的損失と組み合わせることで, 課題のある環境において, 適切な深度マップを生成できるだけでなく, シーン形状を復元できることを示す。
さらに,ar-glasses装置の魚眼カメラを利用して室内データセットを収集し,評価を容易にする。
関連論文リスト
- FisheyeDepth: A Real Scale Self-Supervised Depth Estimation Model for Fisheye Camera [8.502741852406904]
魚眼カメラに適した自己監督深度推定モデルである魚眼深度について述べる。
魚眼カメラモデルを訓練中の投射と再投射の段階に組み込んで画像歪みの処理を行う。
また、連続するフレーム間の幾何学的投影に実際のポーズ情報を組み込んで、従来のポーズネットワークで推定されたポーズを置き換える。
論文 参考訳(メタデータ) (2024-09-23T14:31:42Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Error Diagnosis of Deep Monocular Depth Estimation Models [0.2770822269241973]
室内シーンにおける現状のモノクル深度推定モデルを分析し,これらのモデルの限界と誤差パターンを理解する。
深度推定における誤りに対処するために,空間的に誤深度予測を識別する新しい深度誤差検出ネットワーク(DEDN)を導入する。
我々のモジュールは柔軟で、任意の単分子深度予測ネットワークに簡単に接続でき、その結果の診断に役立ちます。
論文 参考訳(メタデータ) (2021-11-15T22:13:28Z) - Depth360: Monocular Depth Estimation using Learnable Axisymmetric Camera
Model for Spherical Camera Image [2.3859169601259342]
魚眼カメラ画像が2つある球面カメラ画像の歪みを受け入れる学習可能な軸対称カメラモデルを提案する。
我々は、地中真相深度画像を生成するために、フォトリアリスティックシミュレータを用いてモデルを訓練した。
GO Stanford データセットの球面カメラ画像と KITTI データセットのピンホールカメラ画像を用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-10-20T07:21:04Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - RealMonoDepth: Self-Supervised Monocular Depth Estimation for General
Scenes [11.995578248462946]
既存の単眼深度推定法では、トレーニングに正確な深度測定が必要である。
自己監督的なアプローチは印象的な結果を示しているが、異なる奥行き範囲やカメラベースラインのシーンには一般化しない。
本研究では,屋内・屋外の多様なシーンに対して,実景深度を推定する自己教師型単眼深度推定手法であるRealMonoDepthを紹介する。
論文 参考訳(メタデータ) (2020-04-14T02:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。