論文の概要: Deep Autofocus for Synthetic Aperture Sonar
- arxiv url: http://arxiv.org/abs/2010.15687v2
- Date: Fri, 30 Jul 2021 11:38:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 23:37:24.502838
- Title: Deep Autofocus for Synthetic Aperture Sonar
- Title(参考訳): 合成開口ソナーの深部オートフォーカス
- Authors: Isaac Gerg and Vishal Monga
- Abstract要約: 本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
- 参考スコア(独自算出の注目度): 28.306713374371814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic aperture sonar (SAS) requires precise positional and environmental
information to produce well-focused output during the image reconstruction
step. However, errors in these measurements are commonly present resulting in
defocused imagery. To overcome these issues, an \emph{autofocus} algorithm is
employed as a post-processing step after image reconstruction for the purpose
of improving image quality using the image content itself. These algorithms are
usually iterative and metric-based in that they seek to optimize an image
sharpness metric. In this letter, we demonstrate the potential of machine
learning, specifically deep learning, to address the autofocus problem. We
formulate the problem as a self-supervised, phase error estimation task using a
deep network we call Deep Autofocus. Our formulation has the advantages of
being non-iterative (and thus fast) and not requiring ground truth
focused-defocused images pairs as often required by other deblurring deep
learning methods. We compare our technique against a set of common sharpness
metrics optimized using gradient descent over a real-world dataset. Our results
demonstrate Deep Autofocus can produce imagery that is perceptually as good as
benchmark iterative techniques but at a substantially lower computational cost.
We conclude that our proposed Deep Autofocus can provide a more favorable
cost-quality trade-off than state-of-the-art alternatives with significant
potential of future research.
- Abstract(参考訳): 合成開口ソナー(SAS)は、画像再構成段階において、正確な位置情報と環境情報を必要とする。
しかし、これらの測定における誤差は一般的には非焦点画像となる。
これらの問題を克服するために、画像コンテンツ自体を用いた画質向上を目的として、画像再構成後の処理ステップとして \emph{autofocus}アルゴリズムを用いる。
これらのアルゴリズムは通常、画像シャープネスメトリックを最適化しようとする点で反復的かつメトリックベースである。
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
我々の定式化には、非定型的(即ち高速)であり、他の難解な深層学習手法で必要とされるような、真実に焦点を絞ったイメージペアを必要としないという利点がある。
本手法を,実世界のデータセット上で勾配降下を最適化した一般的なシャープネス指標と比較した。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
提案する深層オートフォーカスは,最先端の代替技術よりも良好なコスト品質のトレードオフを提供し,将来的な研究の可能性を秘めていると結論づける。
関連論文リスト
- Deep Phase Coded Image Prior [34.84063452418995]
位相符号化イメージングは受動深度推定や拡大深度推定といった課題に対処する手法である。
深度推定やオールインフォーカスイメージングのための現在のディープラーニングベースの手法のほとんどは、高品質の深度マップを備えたトレーニングデータセットを必要とする。
本稿では,深度マップと全焦点画像の同時復元のためのDPCIP (Deep Phase Coded Image Prior) を提案する。
論文 参考訳(メタデータ) (2024-04-05T05:58:40Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Precise Point Spread Function Estimation [6.076995573805468]
我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
論文 参考訳(メタデータ) (2022-03-06T12:43:27Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z) - Aliasing is your Ally: End-to-End Super-Resolution from Raw Image Bursts [70.80220990106467]
本発表では,空間と時間に若干異なる視点から撮影された複数の低解像度スナップショットから高分解能画像を再構成する問題に対処する。
この問題を解決するための主な課題は、(i)入力画像とサブピクセル精度の整合性、(ii)ネイティブカメラデータに対する最大限の忠実性のための生(ノイズ)画像の扱い、(iii)タスクに適した画像事前(正規化器)を設計・学習することである。
論文 参考訳(メタデータ) (2021-04-13T13:39:43Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus [34.77467193499518]
合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-18T15:16:29Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。