論文の概要: Autofocus for Event Cameras
- arxiv url: http://arxiv.org/abs/2203.12321v1
- Date: Wed, 23 Mar 2022 10:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:32:15.272608
- Title: Autofocus for Event Cameras
- Title(参考訳): イベントカメラのオートフォーカス
- Authors: Shijie Lin and Yinqiang Zhang and Lei Yu and Bin Zhou and Xiaowei Luo
and Jia Pan
- Abstract要約: イベントレート(ER)と、イベントベースゴールデンサーチ(EGS)と呼ばれるロバスト検索戦略からなる、イベント固有のフォーカス尺度からなる、イベントベースの新しいオートフォーカスフレームワークを開発する。
このデータセットと追加の実世界のシナリオ実験により、我々の手法が最先端の手法よりも効率と精度で優れていることを示した。
- 参考スコア(独自算出の注目度): 21.972388081563267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Focus control (FC) is crucial for cameras to capture sharp images in
challenging real-world scenarios. The autofocus (AF) facilitates the FC by
automatically adjusting the focus settings. However, due to the lack of
effective AF methods for the recently introduced event cameras, their FC still
relies on naive AF like manual focus adjustments, leading to poor adaptation in
challenging real-world conditions. In particular, the inherent differences
between event and frame data in terms of sensing modality, noise, temporal
resolutions, etc., bring many challenges in designing an effective AF method
for event cameras. To address these challenges, we develop a novel event-based
autofocus framework consisting of an event-specific focus measure called event
rate (ER) and a robust search strategy called event-based golden search (EGS).
To verify the performance of our method, we have collected an event-based
autofocus dataset (EAD) containing well-synchronized frames, events, and focal
positions in a wide variety of challenging scenes with severe lighting and
motion conditions. The experiments on this dataset and additional real-world
scenarios demonstrated the superiority of our method over state-of-the-art
approaches in terms of efficiency and accuracy.
- Abstract(参考訳): フォーカスコントロール(fc)は、実世界のシナリオでシャープな画像を撮影するカメラにとって不可欠である。
オートフォーカス(AF)はフォーカス設定を自動的に調整することでFCを容易にする。
しかし、最近導入されたイベントカメラの効果的なAF手法が欠如しているため、FCは依然として手動フォーカス調整のような手動AFに頼っているため、現実の状況への適応は不十分である。
特に, イベントデータとフレームデータとの知覚的差異, ノイズ, 時間分解能などの相違は, イベントカメラに有効なAF法を設計する上で多くの課題をもたらす。
これらの課題に対処するため,イベント特異的フォーカス尺度であるイベントレート(ER)と,イベントベースゴールデンサーチ(EGS)と呼ばれる堅牢な検索戦略からなる,イベントベースの新しいオートフォーカスフレームワークを開発した。
本手法の性能を検証するため,我々は,高度に同期されたフレーム,イベント,焦点位置を含むイベントベースのオートフォーカスデータセット (ead) を,照明や動作条件の厳しい様々な課題場面で収集した。
このデータセットと追加の実世界のシナリオ実験により、我々の手法が最先端の手法よりも効率と精度で優れていることを示した。
関連論文リスト
- Event-assisted Low-Light Video Object Segmentation [47.28027938310957]
イベントカメラは、このような低照度条件下でオブジェクトの可視性を高め、VOSメソッドを支援することを約束する。
本稿では、イベントカメラデータを利用してセグメンテーション精度を向上させる、低照度VOSに適した先駆的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T13:41:22Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - $\text{DC}^2$: Dual-Camera Defocus Control by Learning to Refocus [38.24734623691387]
合成カメラ開口,焦点距離,任意のデフォーカス効果のデフォーカス制御システムを提案する。
私たちの重要な洞察は、デフォーカスを学習するためのプロキシタスクとしてイメージリフォーカスを使用することで、実世界のスマートフォンカメラデータセットを活用することです。
我々は,傾きシフトやコンテンツベースのデフォーカス効果を含む,クリエイティヴ・キャプチャー後デフォーカス制御の実現を実証する。
論文 参考訳(メタデータ) (2023-04-06T17:59:58Z) - Improving Fast Auto-Focus with Event Polarity [5.376511424333543]
本稿では,新しい高速かつ高精度なイベントベースフォーカスアルゴリズムを提案する。
パブリックイベントベースのオートフォーカスデータセット(EAD)の実験は、モデルの堅牢性を示している。
焦点の深さが1度未満の正確なフォーカスは、私たちの自作高速フォーカスプラットフォームで0.004秒以内に達成されます。
論文 参考訳(メタデータ) (2023-03-15T13:36:13Z) - Learning to See Through with Events [37.19232535463858]
本稿では,極めて低レイテンシかつ高ダイナミックレンジの非同期イベントに依存するイベントベースSAI(E-SAI)手法を提案する。
収集されたイベントは、最初にRe-focus-Netモジュールによって再フォーカスされ、オフフォーカスイベントを散乱しながら、インフォーカスイベントを調整する。
スパイクニューラルネットワーク (SNN) と畳み込みニューラルネットワーク (CNN) を組み合わせたハイブリッドネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T12:51:22Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。