論文の概要: Depth Jitter: Seeing through the Depth
- arxiv url: http://arxiv.org/abs/2508.06227v1
- Date: Fri, 08 Aug 2025 11:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.211362
- Title: Depth Jitter: Seeing through the Depth
- Title(参考訳): 深度ジッター:深度を通して見る
- Authors: Md Sazidur Rahman, David Cabecinhas, Ricard Marxer,
- Abstract要約: Depth-Jitterは、自然深度の変化をシミュレートして一般化を改善する、新しい深度に基づく拡張手法である。
提案手法は, 合成深度摂動を生成するために, 奥行き変動閾値によって誘導される適応深度オフセットを適用した。
FathomNetとUTDAC 2020の2つのベンチマークデータセットでDepth-Jitterを評価した。
- 参考スコア(独自算出の注目度): 2.2842607238440857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth information is essential in computer vision, particularly in underwater imaging, robotics, and autonomous navigation. However, conventional augmentation techniques overlook depth aware transformations, limiting model robustness in real world depth variations. In this paper, we introduce Depth-Jitter, a novel depth-based augmentation technique that simulates natural depth variations to improve generalization. Our approach applies adaptive depth offsetting, guided by depth variance thresholds, to generate synthetic depth perturbations while preserving structural integrity. We evaluate Depth-Jitter on two benchmark datasets, FathomNet and UTDAC2020 demonstrating its impact on model stability under diverse depth conditions. Extensive experiments compare Depth-Jitter against traditional augmentation strategies such as ColorJitter, analyzing performance across varying learning rates, encoders, and loss functions. While Depth-Jitter does not always outperform conventional methods in absolute performance, it consistently enhances model stability and generalization in depth-sensitive environments. These findings highlight the potential of depth-aware augmentation for real-world applications and provide a foundation for further research into depth-based learning strategies. The proposed technique is publicly available to support advancements in depth-aware augmentation. The code is publicly available on \href{https://github.com/mim-team/Depth-Jitter}{github}.
- Abstract(参考訳): 深度情報はコンピュータビジョン、特に水中イメージング、ロボット工学、自律ナビゲーションにおいて不可欠である。
しかし、従来の拡張技術は、現実世界の深度変化におけるモデルロバスト性を制限する、深度認識変換を見落としている。
本稿では,自然深度変化をシミュレートして一般化を改善する,新しい深度に基づく拡張手法であるDepth-Jitterを紹介する。
提案手法は, 構造的整合性を維持しつつ, 合成深度摂動を生成するために, 奥行き変化閾値で導かれる適応深度オフセットを適用する。
本稿では,FathomNetとUTDAC2020の2つのベンチマークデータセットを用いてDepth-Jitterの評価を行った。
大規模な実験では、ColorJitterのような従来の拡張戦略とDepth-Jitterを比較し、さまざまな学習率、エンコーダ、損失関数のパフォーマンスを分析している。
Depth-Jitterは絶対的な性能で従来の手法を常に上回るわけではないが、モデル安定性と奥行きに敏感な環境における一般化を一貫して強化する。
これらの知見は、現実世界の応用における深度認識の強化の可能性を強調し、深度に基づく学習戦略のさらなる研究のための基盤を提供する。
提案手法は深度対応強化の進歩を支援するために一般に利用可能である。
コードは \href{https://github.com/mim-team/Depth-Jitter}{github} で公開されている。
関連論文リスト
- Rethinking Transparent Object Grasping: Depth Completion with Monocular Depth Estimation and Instance Mask [10.472380465235629]
ReMakeは、インスタンスマスクと単眼深度推定によってガイドされる、新しい深度補完フレームワークである。
提案手法は,ベンチマークデータセットと実世界のシナリオの両方において,既存の手法よりも優れている。
論文 参考訳(メタデータ) (2025-08-04T15:14:47Z) - Metric-Solver: Sliding Anchored Metric Depth Estimation from a Single Image [51.689871870692194]
Metric-rはスライディングアンカーを用いた新しい距離深さ推定法である。
我々の設計は多様な環境にまたがって統一的かつ適応的な深度表現を可能にする。
論文 参考訳(メタデータ) (2025-04-16T14:12:25Z) - Deep Neural Networks for Accurate Depth Estimation with Latent Space Features [0.0]
本研究では,深部畳み込みニューラルネットワークにおける潜時空間特徴を利用した新しい深度推定フレームワークを提案する。
提案モデルでは,2つのエンコーダ・デコーダアーキテクチャを特徴とし,色から深度への変換と深度への変換が可能である。
フレームワークはNYU Depth V2データセットを使用して徹底的にテストされている。
論文 参考訳(メタデータ) (2025-02-17T13:11:35Z) - Depth Prompting for Sensor-Agnostic Depth Estimation [19.280536006736575]
我々は,新しい深度分布に応じて望ましい特徴表現を可能にするために,新しい深度プロンプトモジュールを設計する。
提案手法は,事前学習したモデルに対して,深度スキャン範囲の制限を不要とし,絶対スケールの深度マップを提供する。
論文 参考訳(メタデータ) (2024-05-20T08:19:08Z) - Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Self-Supervised Learning based Depth Estimation from Monocular Images [0.0]
単色深度推定の目標は、入力として2次元単色RGB画像が与えられた深度マップを予測することである。
我々は、トレーニング中に固有のカメラパラメータを実行し、我々のモデルをさらに一般化するために天気増悪を適用することを計画している。
論文 参考訳(メタデータ) (2023-04-14T07:14:08Z) - Mind The Edge: Refining Depth Edges in Sparsely-Supervised Monocular Depth Estimation [42.19770683222846]
単眼深度推定(MDE)はコンピュータビジョンの基本的な問題であり、多くの応用がある。
本稿では,密集した合成データから深度エッジの位置を検出することを提案する。
いくつかの挑戦的データセットに対して,画素ごとの深度精度を比較検討することにより,深度エッジの精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2022-12-10T14:49:24Z) - ADAADepth: Adapting Data Augmentation and Attention for Self-Supervised
Monocular Depth Estimation [8.827921242078881]
深度向上を深度監督として活用し、正確で堅牢な深度を学習するADAAを提案します。
本稿では,リッチなコンテキスト特徴を学習し,さらに深度を向上するリレーショナル自己認識モジュールを提案する。
KITTI運転データセットの予測深度を評価し、最新の結果を実現します。
論文 参考訳(メタデータ) (2021-03-01T09:06:55Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。