論文の概要: Learning to Autofocus
- arxiv url: http://arxiv.org/abs/2004.12260v3
- Date: Sat, 2 May 2020 23:23:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:36:49.905130
- Title: Learning to Autofocus
- Title(参考訳): オートフォーカスを学ぶ
- Authors: Charles Herrmann, Richard Strong Bowen, Neal Wadhwa, Rahul Garg,
Qiurui He, Jonathan T. Barron, Ramin Zabih
- Abstract要約: Autofocusはデジタルカメラにとって重要なタスクである。
本稿では,この問題に対する学習に基づくアプローチを提案し,効果的な学習のための十分な大きさの現実的なデータセットを提供する。
- 参考スコア(独自算出の注目度): 37.04870177698554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autofocus is an important task for digital cameras, yet current approaches
often exhibit poor performance. We propose a learning-based approach to this
problem, and provide a realistic dataset of sufficient size for effective
learning. Our dataset is labeled with per-pixel depths obtained from multi-view
stereo, following "Learning single camera depth estimation using dual-pixels".
Using this dataset, we apply modern deep classification models and an ordinal
regression loss to obtain an efficient learning-based autofocus technique. We
demonstrate that our approach provides a significant improvement compared with
previous learned and non-learned methods: our model reduces the mean absolute
error by a factor of 3.6 over the best comparable baseline algorithm. Our
dataset and code are publicly available.
- Abstract(参考訳): オートフォーカスはデジタルカメラにとって重要なタスクだが、現在のアプローチは性能が悪いことが多い。
本稿では,この問題に対する学習に基づくアプローチを提案し,効果的な学習に十分な大きさの現実的なデータセットを提供する。
マルチビューステレオから得られた画素毎の深度をラベル付けし,「デュアルピクセルを用いた単一カメラ深度推定」を行った。
このデータセットを用いて,現代的深層分類モデルと順序回帰損失を適用し,効率的な学習に基づくオートフォーカス手法を得る。
提案手法は,従来の学習法と学習法とを比較し,平均絶対誤差を最良となるベースラインアルゴリズムに比べて3.6倍に削減する。
データセットとコードは公開されています。
関連論文リスト
- Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Sample Less, Learn More: Efficient Action Recognition via Frame Feature
Restoration [59.6021678234829]
本稿では,2つのスパースサンプリングおよび隣接するビデオフレームの中間特徴を復元する新しい手法を提案する。
提案手法の統合により, 一般的な3つのベースラインの効率は50%以上向上し, 認識精度は0.5%低下した。
論文 参考訳(メタデータ) (2023-07-27T13:52:42Z) - Single Image Depth Prediction Made Better: A Multivariate Gaussian Take [163.14849753700682]
本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
論文 参考訳(メタデータ) (2023-03-31T16:01:03Z) - Multi-task Learning for Camera Calibration [3.274290296343038]
一対の画像から内在性(主点オフセットと焦点長)と外因性(ベースライン,ピッチ,翻訳)を予測できるユニークな手法を提案する。
カメラモデルニューラルネットワークを用いて3Dポイントを再構成し、再構成の損失を利用してカメラ仕様を得ることにより、この革新的なカメラ投影損失(CPL)法により、所望のパラメータを推定できる。
論文 参考訳(メタデータ) (2022-11-22T17:39:31Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Auto-Rectify Network for Unsupervised Indoor Depth Estimation [119.82412041164372]
ハンドヘルド環境に現れる複雑な自我運動が,学習深度にとって重要な障害であることが確認された。
本稿では,相対回転を除去してトレーニング画像の修正を効果的に行うデータ前処理手法を提案する。
その結果、従来の教師なしSOTA法よりも、難易度の高いNYUv2データセットよりも優れていた。
論文 参考訳(メタデータ) (2020-06-04T08:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。