論文の概要: One-Step Event-Driven High-Speed Autofocus
- arxiv url: http://arxiv.org/abs/2503.01214v1
- Date: Mon, 03 Mar 2025 06:25:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:22.412615
- Title: One-Step Event-Driven High-Speed Autofocus
- Title(参考訳): ワンステップイベント駆動高速オートフォーカス
- Authors: Yuhan Bao, Shaohua Gao, Wenyong Li, Kaiwei Wang,
- Abstract要約: イベントラプラシアン製品(ELP)フォーカス検出機能は、イベントデータとグレースケールのラプラシアン情報を組み合わせて、フォーカス検索を検出タスクとして再定義する。
このイノベーションは、最初の1ステップのイベント駆動オートフォーカスを可能にし、フォーカス時間を最大3分の2削減し、フォーカスエラーをDAVIS346データセットで24回、EVK4データセットで22回削減する。
- 参考スコア(独自算出の注目度): 2.5565719921628443
- License:
- Abstract: High-speed autofocus in extreme scenes remains a significant challenge. Traditional methods rely on repeated sampling around the focus position, resulting in ``focus hunting''. Event-driven methods have advanced focusing speed and improved performance in low-light conditions; however, current approaches still require at least one lengthy round of ``focus hunting'', involving the collection of a complete focus stack. We introduce the Event Laplacian Product (ELP) focus detection function, which combines event data with grayscale Laplacian information, redefining focus search as a detection task. This innovation enables the first one-step event-driven autofocus, cutting focusing time by up to two-thirds and reducing focusing error by 24 times on the DAVIS346 dataset and 22 times on the EVK4 dataset. Additionally, we present an autofocus pipeline tailored for event-only cameras, achieving accurate results across a range of challenging motion and lighting conditions. All datasets and code will be made publicly available.
- Abstract(参考訳): 極端な場面での高速オートフォーカスは依然として重要な課題である。
伝統的な方法は、焦点位置の周りで繰り返しサンプリングすることに依存しており、結果として『フォーカスハンティング』が生じる。
イベント駆動方式は、低照度条件下でのフォーカス速度の向上と性能向上を実現しているが、現在のアプローチでは、完全なフォーカススタックの収集を含む、少なくとも1ラウンドの 'focus Hunt'' を必要とする。
本稿では,イベントデータとグレースケールのラプラシアン情報を組み合わせて,焦点探索を検出タスクとして再定義するイベントラプラシアン製品(ELP)焦点検出機能を紹介する。
このイノベーションは、最初のワンステップのイベント駆動オートフォーカスを可能にし、フォーカス時間を最大3分の2削減し、フォーカスエラーをDAVIS346データセットで24倍、EVK4データセットで22倍削減する。
さらに、イベント専用カメラ用に調整されたオートフォーカスパイプラインを提案し、様々な困難な動きや照明条件で正確な結果を得る。
すべてのデータセットとコードは公開されます。
関連論文リスト
- SparseFocus: Learning-based One-shot Autofocus for Microscopy with Sparse Content [21.268550523841117]
オートフォーカスは顕微鏡画像における高スループットおよびリアルタイム走査に必要である。
最近の学習に基づくアプローチは、ワンショット環境で顕著な効果を示している。
SparseFocusという名前のコンテンツベースのソリューションを提案し、新しい2段階パイプラインを特徴とする。
論文 参考訳(メタデータ) (2025-02-10T13:31:32Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Improving Fast Auto-Focus with Event Polarity [5.376511424333543]
本稿では,新しい高速かつ高精度なイベントベースフォーカスアルゴリズムを提案する。
パブリックイベントベースのオートフォーカスデータセット(EAD)の実験は、モデルの堅牢性を示している。
焦点の深さが1度未満の正確なフォーカスは、私たちの自作高速フォーカスプラットフォームで0.004秒以内に達成されます。
論文 参考訳(メタデータ) (2023-03-15T13:36:13Z) - Learning to See Through with Events [37.19232535463858]
本稿では,極めて低レイテンシかつ高ダイナミックレンジの非同期イベントに依存するイベントベースSAI(E-SAI)手法を提案する。
収集されたイベントは、最初にRe-focus-Netモジュールによって再フォーカスされ、オフフォーカスイベントを散乱しながら、インフォーカスイベントを調整する。
スパイクニューラルネットワーク (SNN) と畳み込みニューラルネットワーク (CNN) を組み合わせたハイブリッドネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T12:51:22Z) - Autofocus for Event Cameras [21.972388081563267]
イベントレート(ER)と、イベントベースゴールデンサーチ(EGS)と呼ばれるロバスト検索戦略からなる、イベント固有のフォーカス尺度からなる、イベントベースの新しいオートフォーカスフレームワークを開発する。
このデータセットと追加の実世界のシナリオ実験により、我々の手法が最先端の手法よりも効率と精度で優れていることを示した。
論文 参考訳(メタデータ) (2022-03-23T10:46:33Z) - MEFNet: Multi-scale Event Fusion Network for Motion Deblurring [62.60878284671317]
従来のフレームベースのカメラは、長時間露光のために必然的に動きがぼやけている。
バイオインスパイアされたカメラの一種として、イベントカメラは、高時間分解能で非同期な方法で強度変化を記録する。
本稿では,イベントベースの画像劣化問題を再考し,これをエンドツーエンドの2段階画像復元ネットワークに展開する。
論文 参考訳(メタデータ) (2021-11-30T23:18:35Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。