論文の概要: CutDepth:Edge-aware Data Augmentation in Depth Estimation
- arxiv url: http://arxiv.org/abs/2107.07684v1
- Date: Fri, 16 Jul 2021 03:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-19 23:25:15.265617
- Title: CutDepth:Edge-aware Data Augmentation in Depth Estimation
- Title(参考訳): CutDepth:深度推定におけるエッジ対応データ拡張
- Authors: Yasunori Ishii and Takayoshi Yamashita
- Abstract要約: RGB画像と深度を同時に取得する必要があるため,単眼深度推定において大規模なデータ収集は困難である。
我々はCutDepthと呼ばれるデータ拡張手法を提案する。
CutDepthでは、トレーニング中に深度の一部を入力画像に貼り付け、エッジの特徴を損なうことなく変化データを拡張する。
- 参考スコア(独自算出の注目度): 9.24923553478607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is difficult to collect data on a large scale in a monocular depth
estimation because the task requires the simultaneous acquisition of RGB images
and depths. Data augmentation is thus important to this task. However, there
has been little research on data augmentation for tasks such as monocular depth
estimation, where the transformation is performed pixel by pixel. In this
paper, we propose a data augmentation method, called CutDepth. In CutDepth,
part of the depth is pasted onto an input image during training. The method
extends variations data without destroying edge features. Experiments
objectively and subjectively show that the proposed method outperforms
conventional methods of data augmentation. The estimation accuracy is improved
with CutDepth even though there are few training data at long distances.
- Abstract(参考訳): RGB画像と深度を同時に取得する必要があるため,単眼深度推定において大規模なデータ収集は困難である。
したがって、このタスクではデータ拡張が重要です。
しかし,ピクセル単位での変換を行う単眼深度推定などのタスクでは,データ拡張に関する研究はほとんど行われていない。
本稿では,CutDepthと呼ばれるデータ拡張手法を提案する。
カットディフでは、トレーニング中に奥行きの一部が入力画像にペーストされる。
この方法はエッジの特徴を損なうことなく変動データを拡張する。
実験により,提案手法が従来のデータ拡張法より優れていることを示す。
遠距離でのトレーニングデータが少ない場合でも、CutDepthで推定精度が向上する。
関連論文リスト
- Depth-Guided Semi-Supervised Instance Segmentation [62.80063539262021]
Semi-Supervised Instance (SSIS)は、トレーニング中にラベルなしデータの量を活用することを目的としている。
従来のフレームワークは主に、ラベルなし画像のRGB情報を利用して擬似ラベルを生成する。
この制限を克服するために、Depth-Guided (DG)フレームワークを導入します。
論文 参考訳(メタデータ) (2024-06-25T09:36:50Z) - Temporal Lidar Depth Completion [0.08192907805418582]
PENetは, 再発の恩恵を受けるために, 最新の手法であるPENetをどう修正するかを示す。
提案アルゴリズムは,KITTI深度補完データセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2024-06-17T08:25:31Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - A Method to Generate High Precision Mesh Model and RGB-D Datasetfor 6D
Pose Estimation Task [10.24919213221012]
本稿では, 高速, 高精度, 堅牢性を考慮したオブジェクト再構成手法を提案する。
私たちのデータはレンダリングデータに近いので、実際のデータと合成データのギャップをさらに縮めることができます。
論文 参考訳(メタデータ) (2020-11-17T16:56:57Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。