論文の概要: Depth Insight -- Contribution of Different Features to Indoor
Single-image Depth Estimation
- arxiv url: http://arxiv.org/abs/2311.10042v1
- Date: Thu, 16 Nov 2023 17:38:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 13:29:01.272483
- Title: Depth Insight -- Contribution of Different Features to Indoor
Single-image Depth Estimation
- Title(参考訳): 深度インサイト - 屋内単画像深度推定への異なる特徴の寄与
- Authors: Yihong Wu, Yuwen Heng, Mahesan Niranjan, Hansung Kim
- Abstract要約: 単分子深度推定設定において、既知の深さのキューの相対的寄与を定量化する。
本研究は, 形状, テクスチャ, 色, 彩度の単一特徴を分離して, 深度を推定するために, 特徴抽出技術を用いた。
- 参考スコア(独自算出の注目度): 8.712751056826283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth estimation from a single image is a challenging problem in computer
vision because binocular disparity or motion information is absent. Whereas
impressive performances have been reported in this area recently using
end-to-end trained deep neural architectures, as to what cues in the images
that are being exploited by these black box systems is hard to know. To this
end, in this work, we quantify the relative contributions of the known cues of
depth in a monocular depth estimation setting using an indoor scene data set.
Our work uses feature extraction techniques to relate the single features of
shape, texture, colour and saturation, taken in isolation, to predict depth. We
find that the shape of objects extracted by edge detection substantially
contributes more than others in the indoor setting considered, while the other
features also have contributions in varying degrees. These insights will help
optimise depth estimation models, boosting their accuracy and robustness. They
promise to broaden the practical applications of vision-based depth estimation.
The project code is attached to the supplementary material and will be
published on GitHub.
- Abstract(参考訳): 単一画像からの深度推定は、両眼差や動き情報がないため、コンピュータビジョンでは難しい問題である。
この領域では、最近、エンドツーエンドの訓練されたディープ・ニューラル・アーキテクチャを使用して、印象的なパフォーマンスが報告されているが、これらのブラックボックス・システムによって悪用されている画像の手がかりを知るのは難しい。
そこで本研究では,室内シーンデータセットを用いた単眼深度推定設定において,既知の深さの手がかりの相対的寄与を定量化する。
本研究は, 形状, テクスチャ, 色, 彩度などの1つの特徴を分離して, 深さを推定するために特徴抽出手法を用いる。
エッジ検出により抽出された物体の形状は, 室内環境において他の物体よりも大きく寄与するが, その他の特徴は程度によっても寄与することがわかった。
これらの洞察は深度推定モデルを最適化し、精度と堅牢性を高めるのに役立つ。
彼らは視覚に基づく深度推定の実践的応用を広げることを約束する。
プロジェクトコードは補足資料に添付され、githubで公開される予定だ。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Self-Supervised Learning based Depth Estimation from Monocular Images [0.0]
単色深度推定の目標は、入力として2次元単色RGB画像が与えられた深度マップを予測することである。
我々は、トレーニング中に固有のカメラパラメータを実行し、我々のモデルをさらに一般化するために天気増悪を適用することを計画している。
論文 参考訳(メタデータ) (2023-04-14T07:14:08Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Monocular Depth Estimation Using Cues Inspired by Biological Vision
Systems [22.539300644593936]
単眼深度推定(MDE)は、シーンのRGB画像を同じカメラビューから画素幅の深度マップに変換することを目的としている。
MDEタスクの一部は、画像内のどの視覚的手がかりを深度推定に使用できるか、どのように使うかを学ぶことである。
モデルに視覚的キュー情報を明示的に注入することは深度推定に有用であることを示す。
論文 参考訳(メタデータ) (2022-04-21T19:42:36Z) - Improving Depth Estimation using Location Information [0.0]
本稿では,自己教師型深度学習法の改良を行い,高精度な単眼深度推定を行う。
主なアイデアは、異なるフレームのシーケンスを考慮に入れたディープモデルをトレーニングすることであり、各フレームはその位置情報でタグ付けされる。
論文 参考訳(メタデータ) (2021-12-27T22:30:14Z) - Predicting Relative Depth between Objects from Semantic Features [2.127049691404299]
2D画像に描かれた物体の3D深度は、そのような特徴の一つです。
この領域における技術の現状は、ステレオ画像データに基づいて訓練された複雑なニューラルネットワークモデルであり、ピクセルごとの深さを予測する。
モノディープスモデルから計算した相対深度に対する相対深度精度の14%の総合的な増加が達成された。
論文 参考訳(メタデータ) (2021-01-12T17:28:23Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Self-Supervised Joint Learning Framework of Depth Estimation via
Implicit Cues [24.743099160992937]
深度推定のための自己教師型共同学習フレームワークを提案する。
提案するフレームワークは,KITTIおよびMake3Dデータセット上での最先端(SOTA)よりも優れている。
論文 参考訳(メタデータ) (2020-06-17T13:56:59Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。