論文の概要: e-ACJ: Accurate Junction Extraction For Event Cameras
- arxiv url: http://arxiv.org/abs/2101.11251v1
- Date: Wed, 27 Jan 2021 08:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-01 19:34:23.904277
- Title: e-ACJ: Accurate Junction Extraction For Event Cameras
- Title(参考訳): e-ACJ:イベントカメラの正確なジャンクション抽出
- Authors: Zhihao Liu, Yuqian Fu
- Abstract要約: 接合は画像の重要な幾何学的構造情報を反映し、画像マッチングや動き解析などの応用において重要な意味を持つ。
過去のイベントベースの特徴抽出手法は、主に場所を見つけるコーナーに重点を置いている。
本稿では、イベントデータにフレームベースのa-コントラリオ接合検出器を適用し、イベントベースのa-コントラリオ接合検出器(e-ACJ)を提案する。
- 参考スコア(独自算出の注目度): 2.7195102129095003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Junctions reflect the important geometrical structure information of the
image, and are of primary significance to applications such as image matching
and motion analysis. Previous event-based feature extraction methods are mainly
focused on corners, which mainly find their locations, however, ignoring the
geometrical structure information like orientations and scales of edges. This
paper adapts the frame-based a-contrario junction detector(ACJ) to event data,
proposing the event-based a-contrario junction detector(e-ACJ), which yields
junctions' locations while giving the scales and orientations of their
branches. The proposed method relies on an a-contrario model and can operate on
asynchronous events directly without generating synthesized event frames. We
evaluate the performance on public event datasets. The result shows our method
successfully finds the orientations and scales of branches, while maintaining
high accuracy in junction's location.
- Abstract(参考訳): 接合は画像の重要な幾何学的構造情報を反映し、画像マッチングや動き解析などの応用において重要な意味を持つ。
従来のイベントベースの特徴抽出手法は、主に角に焦点を絞っているが、方向やエッジのスケールといった幾何学的構造情報を無視している。
本論文では、フレームベースのa-contrario junction detector (ACJ) をイベントデータに適応させ、イベントベースのa-contrario junction detector (e-ACJ) を提案する。
提案手法は,a-contrarioモデルに依存し,合成イベントフレームを生成することなく,非同期イベントを直接操作することができる。
公開イベントデータセットのパフォーマンスを評価します。
その結果,本手法は分岐位置の精度を保ちつつ,枝の向きとスケールの検出に成功した。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - IMU-Aided Event-based Stereo Visual Odometry [7.280676899773076]
我々は、精度と効率の点で、以前のダイレクトパイプラインの textitEvent ベースの Stereo Visual Odometry を改善しました。
マッピング操作を高速化するために,イベントの局所的ダイナミクスに応じたエッジピクセルサンプリングの効率的な戦略を提案する。
この分野での今後の研究のためのオープンソースソフトウェアとして、パイプラインをリリースします。
論文 参考訳(メタデータ) (2024-05-07T07:19:25Z) - Segment Any Events via Weighted Adaptation of Pivotal Tokens [85.39087004253163]
本稿では,Segment Anything Models (SAM) をイベントデータと統合する上で,難易度の高い課題に焦点を当てる。
本稿では,RGB画像とイベントデータからのトークン埋め込みのアライメントを最適化するマルチスケールな特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-12-24T12:47:08Z) - Enhancing Deformable Local Features by Jointly Learning to Detect and
Describe Keypoints [8.390939268280235]
局所特徴抽出は、画像マッチングや検索といった重要なタスクに対処するためのコンピュータビジョンにおける標準的なアプローチである。
鍵点を共同で検出・記述する新しい変形認識ネットワークであるDALFを提案する。
提案手法は、変形可能なオブジェクト検索と、非剛性な3次元表面登録という、2つの実世界のアプリケーションの性能を向上させる。
論文 参考訳(メタデータ) (2023-04-02T18:01:51Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - CoSeg: Cognitively Inspired Unsupervised Generic Event Segmentation [118.18977078626776]
イベントセグメンテーション/バウンダリ検出のためのエンドツーエンドの自己教師型学習フレームワークを提案する。
本フレームワークは, イベント境界を再構成誤差で検出するトランスフォーマーに基づく特徴再構成手法を利用する。
私たちの研究の目標は、特定のイベントをローカライズするのではなく、ジェネリックイベントをセグメント化することです。
論文 参考訳(メタデータ) (2021-09-30T14:40:32Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。