論文の概要: Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus
- arxiv url: http://arxiv.org/abs/2103.10312v1
- Date: Thu, 18 Mar 2021 15:16:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 21:08:12.887504
- Title: Real-Time, Deep Synthetic Aperture Sonar (SAS) Autofocus
- Title(参考訳): real-time, deep synthetic aperture sonar (sas) autofocus
- Authors: Isaac D. Gerg and Vishal Monga
- Abstract要約: 合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これを解決するために、画像再構成後の後処理ステップとして、Emphautofocusアルゴリズムを用いて、画像フォーカスを改善する。
これらの限界を克服し、データ駆動方式で重み付け関数を暗黙的に学習するための深層学習手法を提案する。
- 参考スコア(独自算出の注目度): 34.77467193499518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic aperture sonar (SAS) requires precise time-of-flight measurements
of the transmitted/received waveform to produce well-focused imagery. It is not
uncommon for errors in these measurements to be present resulting in image
defocusing. To overcome this, an \emph{autofocus} algorithm is employed as a
post-processing step after image reconstruction to improve image focus. A
particular class of these algorithms can be framed as a sharpness/contrast
metric-based optimization. To improve convergence, a hand-crafted weighting
function to remove "bad" areas of the image is sometimes applied to the
image-under-test before the optimization procedure. Additionally, dozens of
iterations are necessary for convergence which is a large compute burden for
low size, weight, and power (SWaP) systems. We propose a deep learning
technique to overcome these limitations and implicitly learn the weighting
function in a data-driven manner. Our proposed method, which we call Deep
Autofocus, uses features from the single-look-complex (SLC) to estimate the
phase correction which is applied in $k$-space. Furthermore, we train our
algorithm on batches of training imagery so that during deployment, only a
single iteration of our method is sufficient to autofocus. We show results
demonstrating the robustness of our technique by comparing our results to four
commonly used image sharpness metrics. Our results demonstrate Deep Autofocus
can produce imagery perceptually better than common iterative techniques but at
a lower computational cost. We conclude that Deep Autofocus can provide a more
favorable cost-quality trade-off than alternatives with significant potential
of future research.
- Abstract(参考訳): 合成開口ソナー(sas)は、送信/受信波形の正確な飛行時間計測を必要とする。
これらの測定における誤りが、画像のデフォーカスをもたらすことは珍しくない。
これを解決するために、画像再構成後の後処理ステップとして \emph{autofocus} アルゴリズムを用いる。
これらのアルゴリズムの特定のクラスは、シャープネス/コントラストメトリックベース最適化として構成することができる。
収束性を改善するために、画像の「悪い」領域を除去する手作りの重み付け関数を、最適化手順の前に画像アンダーテストに適用することがある。
さらに、低サイズ、重み、パワー(SWaP)システムに対する計算負荷が大きい収束には、数十のイテレーションが必要である。
本稿では,これらの制限を克服し,データ駆動方式で重み付け関数を暗黙的に学習する深層学習手法を提案する。
提案手法はDeep Autofocusと呼ばれ、SLC(Single-look-complex)の機能を用いて、$k$-spaceで適用された位相補正を推定する。
さらに、トレーニングイメージのバッチでアルゴリズムをトレーニングすることで、デプロイ中は、自動フォーカスに十分なのは1回のイテレーションのみになるようにします。
実験の結果を4つの画像シャープネス指標と比較することにより,その堅牢性を示す結果を示した。
以上の結果から,深部オートフォーカスは一般的な反復的手法よりもイメージを知覚的に優れたものにすることができるが,計算コストは低い。
深いオートフォーカスは、将来の研究の大きな可能性を持つ代替品よりも、より有利なコスト品質のトレードオフを提供できると結論づける。
関連論文リスト
- SparseFocus: Learning-based One-shot Autofocus for Microscopy with Sparse Content [21.268550523841117]
オートフォーカスは顕微鏡画像における高スループットおよびリアルタイム走査に必要である。
最近の学習に基づくアプローチは、ワンショット環境で顕著な効果を示している。
SparseFocusという名前のコンテンツベースのソリューションを提案し、新しい2段階パイプラインを特徴とする。
論文 参考訳(メタデータ) (2025-02-10T13:31:32Z) - Enhancing Digital Hologram Reconstruction Using Reverse-Attention Loss for Untrained Physics-Driven Deep Learning Models with Uncertain Distance [10.788482076164314]
未学習のディープラーニング手法におけるオートフォーカス問題に対処するための先駆的なアプローチを提案する。
提案手法は,競合する手法に対する大幅な再構成性能を示す。
例えば、PSNRでは1dB以下であり、SSIMでは0.002以下である。
論文 参考訳(メタデータ) (2024-01-11T01:30:46Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - DeepRM: Deep Recurrent Matching for 6D Pose Refinement [77.34726150561087]
DeepRMは、6Dポーズ改善のための新しいリカレントネットワークアーキテクチャである。
アーキテクチャにはLSTMユニットが組み込まれ、各改善ステップを通じて情報を伝達する。
DeepRMは、2つの広く受け入れられている課題データセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-28T16:18:08Z) - Precise Point Spread Function Estimation [6.076995573805468]
我々はデフォーカス過程を記述するために,カメラの点展開関数の正確な数学的モデルを開発する。
標準平面および実物体に関する実験により,提案アルゴリズムがデフォーカス過程を正確に記述できることが示されている。
論文 参考訳(メタデータ) (2022-03-06T12:43:27Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - IMU-Assisted Learning of Single-View Rolling Shutter Correction [16.242924916178282]
ローリングシャッター歪みは、写真やコンピュータビジョンアルゴリズムにとって非常に望ましくない。
回転シャッター補正のための1つの画像から深度と行ワイドポーズを予測するディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-05T21:33:25Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - The Power of Triply Complementary Priors for Image Compressive Sensing [89.14144796591685]
本稿では,一対の相補的な旅先を含むLRD画像モデルを提案する。
次に、画像CSのためのRDモデルに基づく新しいハイブリッド・プラグイン・アンド・プレイ・フレームワークを提案する。
そこで,提案したH-based image CS問題の解法として,単純で効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-16T08:17:44Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。