論文の概要: Improving Fast Auto-Focus with Event Polarity
- arxiv url: http://arxiv.org/abs/2303.08611v1
- Date: Wed, 15 Mar 2023 13:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 13:42:14.497556
- Title: Improving Fast Auto-Focus with Event Polarity
- Title(参考訳): イベントポラリティによる高速オートフォーカスの改善
- Authors: Yuhan Bao, Lei Sun, Yuqin Ma, Diyang Gu, Kaiwei Wang
- Abstract要約: 本稿では,暗黒ダイナミックシーンにおける高速かつ高精度なオートフォーカスを特徴とする,極性に基づくイベントカメラオートフォーカスアルゴリズムを提案する。
パブリックEDAデータセットの実験は、モデルの堅牢性を示している。
焦点の深さが1度未満の正確なフォーカスは、私たちの自作高速フォーカスプラットフォームで0.004秒以内に達成されます。
- 参考スコア(独自算出の注目度): 5.376511424333543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and accurate auto-focus in adverse conditions remains an arduous task.
The paper presents a polarity-based event camera auto-focus algorithm featuring
high-speed, precise auto-focus in dark, dynamic scenes that conventional
frame-based cameras cannot match. Specifically, the symmetrical relationship
between the event polarities in focusing is investigated, and the event-based
focus evaluation function is proposed based on the principles of the event
cameras and the imaging model in the focusing process. Comprehensive
experiments on the public EAD dataset show the robustness of the model.
Furthermore, precise focus with less than one depth of focus is achieved within
0.004 seconds on our self-built high-speed focusing platform. The dataset and
code will be made publicly available.
- Abstract(参考訳): 悪条件下での迅速かつ正確なオートフォーカスは、いまだに大変な作業である。
本論文は,従来のフレームベースカメラではマッチしない暗くダイナミックなシーンにおいて,高速で高精度なオートフォーカスを特徴とする,極性に基づくイベントカメラオートフォーカスアルゴリズムを提案する。
具体的には、焦点焦点における事象極性間の対称的関係について検討し、焦点焦点過程におけるイベントカメラの原理と撮像モデルに基づいて、事象に基づく焦点評価関数を提案する。
パブリックEDAデータセットに関する総合的な実験は、モデルの堅牢性を示している。
さらに、我々の自作高速集中プラットフォーム上で、焦点深が1度未満の正確な焦点は0.004秒以内に達成される。
データセットとコードは公開される予定だ。
関連論文リスト
- Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Autofocus for Event Cameras [21.972388081563267]
イベントレート(ER)と、イベントベースゴールデンサーチ(EGS)と呼ばれるロバスト検索戦略からなる、イベント固有のフォーカス尺度からなる、イベントベースの新しいオートフォーカスフレームワークを開発する。
このデータセットと追加の実世界のシナリオ実験により、我々の手法が最先端の手法よりも効率と精度で優れていることを示した。
論文 参考訳(メタデータ) (2022-03-23T10:46:33Z) - Deep Depth from Focus with Differential Focus Volume [17.505649653615123]
焦点スタック内の最良焦点画素を抽出し,焦点推定から深度を推定するための畳み込みニューラルネットワーク(CNN)を提案する。
ネットワークの重要な革新は、新しいディープディファレンシャルフォーカスボリューム(DFV)である。
論文 参考訳(メタデータ) (2021-12-03T04:49:51Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - Decentralized Autofocusing System with Hierarchical Agents [2.7716102039510564]
本稿では,カメラとレンズ焦点設定をインテリジェントに制御する階層型マルチエージェント深部強化学習手法を提案する。
このアルゴリズムはカメラのストリームの潜在表現に依存しており、カメラの全く参照しないチューニングを可能にする最初の方法である。
論文 参考訳(メタデータ) (2021-08-29T13:45:15Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Deep Autofocus for Synthetic Aperture Sonar [28.306713374371814]
本稿では,機械学習,特にディープラーニングがオートフォーカス問題に対処する可能性を示す。
我々は、Deep Autofocusと呼ばれるディープネットワークを用いて、自己教師型位相誤差推定タスクとして問題を定式化する。
以上の結果から,Deep Autofocusは,ベンチマーク反復手法に劣らず,計算コストが大幅に低い画像を生成することができることを示した。
論文 参考訳(メタデータ) (2020-10-29T15:31:15Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。