論文の概要: Aberration-Aware Depth-from-Focus
- arxiv url: http://arxiv.org/abs/2303.04654v1
- Date: Wed, 8 Mar 2023 15:21:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 13:26:47.612775
- Title: Aberration-Aware Depth-from-Focus
- Title(参考訳): Aberration-Aware Depth-from-Focus
- Authors: Xinge Yang, Qiang Fu, Mohammed Elhoseiny, Wolfgang Heidrich
- Abstract要約: 焦点スタックにおける最良焦点フレームの決定に影響を及ぼすオフ軸収差による領域ギャップについて検討する。
次に、収差認識トレーニング(AAT)を通じて、この領域ギャップをブリッジすることを検討する。
我々のアプローチは、異なる位置でレンズ収差をモデル化し、フォーカス距離をモデル化する軽量ネットワークで、従来のネットワークトレーニングパイプラインに統合される。
- 参考スコア(独自算出の注目度): 20.956132508261664
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Computer vision methods for depth estimation usually use simple camera models
with idealized optics. For modern machine learning approaches, this creates an
issue when attempting to train deep networks with simulated data, especially
for focus-sensitive tasks like Depth-from-Focus. In this work, we investigate
the domain gap caused by off-axis aberrations that will affect the decision of
the best-focused frame in a focal stack. We then explore bridging this domain
gap through aberration-aware training (AAT). Our approach involves a
lightweight network that models lens aberrations at different positions and
focus distances, which is then integrated into the conventional network
training pipeline. We evaluate the generality of pretrained models on both
synthetic and real-world data. Our experimental results demonstrate that the
proposed AAT scheme can improve depth estimation accuracy without fine-tuning
the model or modifying the network architecture.
- Abstract(参考訳): 深度推定のためのコンピュータビジョン法は通常、理想化された光学系を持つ単純なカメラモデルを用いる。
現代の機械学習アプローチでは、特にDepth-from-Focusのようなフォーカスセンシティブなタスクにおいて、シミュレーションデータでディープネットワークをトレーニングしようとするときに問題が発生する。
本研究では,focalスタックにおける最良焦点フレームの決定に影響を与えるオフ軸収差に起因する領域ギャップについて検討する。
次に、収差認識トレーニング(AAT)を通じて、このドメインギャップをブリッジすることを検討します。
我々のアプローチは、異なる位置におけるレンズ収差と焦点距離をモデル化し、従来のネットワークトレーニングパイプラインに統合する軽量ネットワークである。
我々は、合成データと実世界のデータの両方で事前訓練されたモデルの一般性を評価する。
実験の結果,提案手法はモデルを微調整したり,ネットワークアーキテクチャを変更することなく,深度推定精度を向上させることができることがわかった。
関連論文リスト
- Robust Depth Enhancement via Polarization Prompt Fusion Tuning [112.88371907047396]
様々な深度センサによる不正確な深度測定を改善するために偏光イメージングを利用するフレームワークを提案する。
まず、偏光データとセンサ深度マップから高密度で完全な深度マップを推定するために、ニューラルネットワークを訓練した学習ベースの戦略を採用する。
大規模データセット上で事前学習したRGBモデルを有効に活用するためのPPFT(Polarization Prompt Fusion Tuning)戦略を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:55:33Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - Occlusion-aware Unsupervised Learning of Depth from 4-D Light Fields [50.435129905215284]
4次元光場処理と解析のための教師なし学習に基づく深度推定法を提案する。
光場データの特異な幾何学構造に関する基礎知識に基づいて,光場ビューのサブセット間の角度コヒーレンスを探索し,深度マップを推定する。
提案手法は,従来の手法と同等の精度で計算コストを低減した深度マップを作成できる。
論文 参考訳(メタデータ) (2021-06-06T06:19:50Z) - Domain Adaptive Monocular Depth Estimation With Semantic Information [13.387521845596149]
ドメインギャップを狭めるためにセマンティック情報を活用した対比トレーニングモデルを提案する。
提案したコンパクトモデルは,複雑な最新モデルに匹敵する最先端性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T18:50:41Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Focus on defocus: bridging the synthetic to real domain gap for depth
estimation [9.023847175654602]
我々は、ドメイン不変デフォーカスブラーを直接監督として利用することで、合成現実のドメインギャップを埋める問題に取り組む。
我々は、焦点の異なる画像の違いからネットワークが学習することを奨励する置換不変畳み込みニューラルネットワークを使用することで、デフォーカスの手がかりを活用する。
我々は、合成データに基づいてモデルを完全にトレーニングし、それを広範囲の現実世界の画像に直接適用することができる。
論文 参考訳(メタデータ) (2020-05-19T17:52:37Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。