論文の概要: Improving Fast Auto-Focus with Event Polarity
- arxiv url: http://arxiv.org/abs/2303.08611v1
- Date: Wed, 15 Mar 2023 13:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:42:14.497556
- Title: Improving Fast Auto-Focus with Event Polarity
- Title(参考訳): イベントポラリティによる高速オートフォーカスの改善
- Authors: Yuhan Bao, Lei Sun, Yuqin Ma, Diyang Gu, Kaiwei Wang
- Abstract要約: 本稿では,暗黒ダイナミックシーンにおける高速かつ高精度なオートフォーカスを特徴とする,極性に基づくイベントカメラオートフォーカスアルゴリズムを提案する。
パブリックEDAデータセットの実験は、モデルの堅牢性を示している。
焦点の深さが1度未満の正確なフォーカスは、私たちの自作高速フォーカスプラットフォームで0.004秒以内に達成されます。
- 参考スコア(独自算出の注目度): 5.376511424333543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and accurate auto-focus in adverse conditions remains an arduous task.
The paper presents a polarity-based event camera auto-focus algorithm featuring
high-speed, precise auto-focus in dark, dynamic scenes that conventional
frame-based cameras cannot match. Specifically, the symmetrical relationship
between the event polarities in focusing is investigated, and the event-based
focus evaluation function is proposed based on the principles of the event
cameras and the imaging model in the focusing process. Comprehensive
experiments on the public EAD dataset show the robustness of the model.
Furthermore, precise focus with less than one depth of focus is achieved within
0.004 seconds on our self-built high-speed focusing platform. The dataset and
code will be made publicly available.
- Abstract(参考訳): 悪条件下での迅速かつ正確なオートフォーカスは、いまだに大変な作業である。
本論文は,従来のフレームベースカメラではマッチしない暗くダイナミックなシーンにおいて,高速で高精度なオートフォーカスを特徴とする,極性に基づくイベントカメラオートフォーカスアルゴリズムを提案する。
具体的には、焦点焦点における事象極性間の対称的関係について検討し、焦点焦点過程におけるイベントカメラの原理と撮像モデルに基づいて、事象に基づく焦点評価関数を提案する。
パブリックEDAデータセットに関する総合的な実験は、モデルの堅牢性を示している。
さらに、我々の自作高速集中プラットフォーム上で、焦点深が1度未満の正確な焦点は0.004秒以内に達成される。
データセットとコードは公開される予定だ。
関連論文リスト
- Learning Monocular Depth from Focus with Event Focal Stack [6.200121342586474]
イベントフォカルスタックからスパース深さを推定するEDFFネットワークを提案する。
イベントボクセルグリッドを用いて、強度変化情報とプロジェクトイベント時間表面を深度領域にエンコードする。
上記の情報を融合させるために、Focal-Distance-Guided Cross-Modal Attention Moduleが提示される。
論文 参考訳(メタデータ) (2024-05-11T07:54:49Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Autofocus for Event Cameras [21.972388081563267]
イベントレート(ER)と、イベントベースゴールデンサーチ(EGS)と呼ばれるロバスト検索戦略からなる、イベント固有のフォーカス尺度からなる、イベントベースの新しいオートフォーカスフレームワークを開発する。
このデータセットと追加の実世界のシナリオ実験により、我々の手法が最先端の手法よりも効率と精度で優れていることを示した。
論文 参考訳(メタデータ) (2022-03-23T10:46:33Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - Decentralized Autofocusing System with Hierarchical Agents [2.7716102039510564]
本稿では,カメラとレンズ焦点設定をインテリジェントに制御する階層型マルチエージェント深部強化学習手法を提案する。
このアルゴリズムはカメラのストリームの潜在表現に依存しており、カメラの全く参照しないチューニングを可能にする最初の方法である。
論文 参考訳(メタデータ) (2021-08-29T13:45:15Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。