論文の概要: Towards Real-World Focus Stacking with Deep Learning
- arxiv url: http://arxiv.org/abs/2311.17846v1
- Date: Wed, 29 Nov 2023 17:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:20:50.255929
- Title: Towards Real-World Focus Stacking with Deep Learning
- Title(参考訳): 深層学習による実世界の焦点重ね合わせに向けて
- Authors: Alexandre Araujo, Jean Ponce, Julien Mairal
- Abstract要約: 焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
- 参考スコア(独自算出の注目度): 97.34754533628322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Focus stacking is widely used in micro, macro, and landscape photography to
reconstruct all-in-focus images from multiple frames obtained with focus
bracketing, that is, with shallow depth of field and different focus planes.
Existing deep learning approaches to the underlying multi-focus image fusion
problem have limited applicability to real-world imagery since they are
designed for very short image sequences (two to four images), and are typically
trained on small, low-resolution datasets either acquired by light-field
cameras or generated synthetically. We introduce a new dataset consisting of 94
high-resolution bursts of raw images with focus bracketing, with pseudo ground
truth computed from the data using state-of-the-art commercial software. This
dataset is used to train the first deep learning algorithm for focus stacking
capable of handling bursts of sufficient length for real-world applications.
Qualitative experiments demonstrate that it is on par with existing commercial
solutions in the long-burst, realistic regime while being significantly more
tolerant to noise. The code and dataset are available at
https://github.com/araujoalexandre/FocusStackingDataset.
- Abstract(参考訳): フォーカススタッキングは、マイクロ、マクロ、ランドスケープ撮影において、フォーカスブラケットで得られた複数のフレーム、すなわち、浅い視野深度と異なる焦点面から全焦点画像を再構成するために広く用いられている。
基礎となるマルチフォーカス画像融合問題に対する既存のディープラーニングアプローチは、非常に短い画像シーケンス(2〜4枚の画像)用に設計されており、通常、ライトフィールドカメラによって取得されたり、合成によって生成された小さな低解像度データセットでトレーニングされるため、実世界の画像に適用性が限られている。
本稿では,最新の商用ソフトウェアを用いてデータから疑似基底真理を計算した,フォーカスブラケット付き生画像の94個の高分解能バーストからなる新しいデータセットを提案する。
このデータセットは、実世界のアプリケーションで十分な長さのバーストを処理できるフォーカススタッキングのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
定性的実験は、長いバーストで現実的な状態にある既存の商用ソリューションと同等であり、ノイズにかなり耐性があることを示した。
コードとデータセットはhttps://github.com/araujoalexandre/focusstackingdatasetで利用可能である。
関連論文リスト
- Deep Phase Coded Image Prior [34.84063452418995]
位相符号化イメージングは受動深度推定や拡大深度推定といった課題に対処する手法である。
深度推定やオールインフォーカスイメージングのための現在のディープラーニングベースの手法のほとんどは、高品質の深度マップを備えたトレーニングデータセットを必要とする。
本稿では,深度マップと全焦点画像の同時復元のためのDPCIP (Deep Phase Coded Image Prior) を提案する。
論文 参考訳(メタデータ) (2024-04-05T05:58:40Z) - Exposure Bracketing is All You Need for Unifying Image Restoration and Enhancement Tasks [50.822601495422916]
本稿では,露光ブラケット写真を利用して画像復元と拡張作業を統合することを提案する。
実世界のペアの収集が困難であるため,まず合成ペアデータを用いてモデルを事前学習する手法を提案する。
特に,時間変調リカレントネットワーク(TMRNet)と自己教師あり適応手法を提案する。
論文 参考訳(メタデータ) (2024-01-01T14:14:35Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Learning to Deblur using Light Field Generated and Real Defocus Images [4.926805108788465]
デフォーカス・デブロワーリングは、デフォーカス・ボケの性質が空間的に変化するため、困難な作業である。
本稿では,光の強度を活用し,光源の欠点を克服する新しいディープデフォーカス・デブロアリング・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-01T11:35:51Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。