論文の概要: EventFly: Event Camera Perception from Ground to the Sky
- arxiv url: http://arxiv.org/abs/2503.19916v1
- Date: Tue, 25 Mar 2025 17:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:53:54.322535
- Title: EventFly: Event Camera Perception from Ground to the Sky
- Title(参考訳): EventFly: 地上から空へのイベントカメラの認識
- Authors: Lingdong Kong, Dongyue Lu, Xiang Xu, Lai Xing Ng, Wei Tsang Ooi, Benoit R. Cottereau,
- Abstract要約: イベントベースの密集認識におけるクロスプラットフォーム適応は、さまざまな設定にわたるイベントカメラのデプロイに不可欠である。
EventFlyは、イベントカメラの認識において、堅牢なクロスプラットフォーム適応のためのフレームワークである。
- 参考スコア(独自算出の注目度): 6.82453734349088
- License:
- Abstract: Cross-platform adaptation in event-based dense perception is crucial for deploying event cameras across diverse settings, such as vehicles, drones, and quadrupeds, each with unique motion dynamics, viewpoints, and class distributions. In this work, we introduce EventFly, a framework for robust cross-platform adaptation in event camera perception. Our approach comprises three key components: i) Event Activation Prior (EAP), which identifies high-activation regions in the target domain to minimize prediction entropy, fostering confident, domain-adaptive predictions; ii) EventBlend, a data-mixing strategy that integrates source and target event voxel grids based on EAP-driven similarity and density maps, enhancing feature alignment; and iii) EventMatch, a dual-discriminator technique that aligns features from source, target, and blended domains for better domain-invariant learning. To holistically assess cross-platform adaptation abilities, we introduce EXPo, a large-scale benchmark with diverse samples across vehicle, drone, and quadruped platforms. Extensive experiments validate our effectiveness, demonstrating substantial gains over popular adaptation methods. We hope this work can pave the way for more adaptive, high-performing event perception across diverse and complex environments.
- Abstract(参考訳): イベントベースの密集認識におけるクロスプラットフォーム適応は、車両、ドローン、四脚など、さまざまな設定でイベントカメラをデプロイするために不可欠である。
本研究では,イベントカメラ認識における堅牢なクロスプラットフォーム適応のためのフレームワークであるEventFlyを紹介する。
私たちのアプローチには3つの重要な要素があります。
一 イベントアクティベーション優先(EAP)であって、予測エントロピーを最小限に抑え、確実で領域適応的な予測を促進するために、対象領域内の高活性化領域を特定すること。
ii)EventBlendは、EAP駆動の類似性と密度マップに基づいて、ソースとターゲットのイベントボクセルグリッドを統合し、特徴調整を強化するデータ混合戦略である。
iii) EventMatchは、ドメイン不変学習を改善するために、ソース、ターゲット、ブレンドされたドメインからの機能を整列する、二重識別器のテクニックです。
クロスプラットフォームの適応能力を評価するために、車、ドローン、四足歩行プラットフォームにまたがるさまざまなサンプルを備えた大規模なベンチマークであるEXPoを紹介します。
広汎な実験により、我々の効果が検証され、一般的な適応法よりも顕著に向上した。
この作業が、多様で複雑な環境にまたがって、より適応的でハイパフォーマンスなイベント認識の道を開くことを願っています。
関連論文リスト
- Segment Any Events via Weighted Adaptation of Pivotal Tokens [85.39087004253163]
本稿では,Segment Anything Models (SAM) をイベントデータと統合する上で,難易度の高い課題に焦点を当てる。
本稿では,RGB画像とイベントデータからのトークン埋め込みのアライメントを最適化するマルチスケールな特徴蒸留手法を提案する。
論文 参考訳(メタデータ) (2023-12-24T12:47:08Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - GET: Group Event Transformer for Event-Based Vision [82.312736707534]
イベントカメラは、注目を集めている新しいニューロモルフィックセンサーの一種である。
我々は、グループイベントトランスフォーマー(GET)と呼ばれる、イベントベースのビジョンのための新しいグループベースのビジョントランスフォーマーバックボーンを提案する。
GETは特徴抽出プロセスを通して空間的インフォメーションから時間的極性情報を分離する。
論文 参考訳(メタデータ) (2023-10-04T08:02:33Z) - How Many Events do You Need? Event-based Visual Place Recognition Using
Sparse But Varying Pixels [29.6328152991222]
イベントカメラ研究の潜在的な応用の1つは、ロボットのローカライゼーションのための視覚的位置認識である。
事象フレームに蓄積した画素位置における事象数に絶対的な差があることが、位置認識タスクに十分であることを示す。
我々は,Brisbane-Event-VPRデータセットに対する提案手法を,新たに提案した屋内QCR-Event-VPRデータセットとともに屋外運転シナリオで評価した。
論文 参考訳(メタデータ) (2022-06-28T00:24:12Z) - Object Tracking by Jointly Exploiting Frame and Event Domain [31.534731963279274]
本稿では,単一物体追跡性能を向上させるために,フレーム領域とイベント領域から視覚的手がかりを融合するマルチモーダルアプローチを提案する。
提案手法は,両領域の有意義な情報を効果的かつ適応的に組み合わせることができる。
提案手法は, 現状のフレームベーストラッキング手法を少なくとも10.4%, 11.9%, 代表的な成功率, 精度で上回っている。
論文 参考訳(メタデータ) (2021-09-19T03:13:25Z) - Bridging the Gap between Events and Frames through Unsupervised Domain
Adaptation [57.22705137545853]
本稿では,ラベル付き画像とラベル付きイベントデータを用いてモデルを直接訓練するタスク転送手法を提案する。
生成イベントモデルを利用して、イベント機能をコンテンツとモーションに分割します。
われわれのアプローチは、イベントベースのニューラルネットワークのトレーニングのために、膨大な量の既存の画像データセットをアンロックする。
論文 参考訳(メタデータ) (2021-09-06T17:31:37Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large
Scenes [57.969186815591186]
大規模なシーンの検出は、小さなオブジェクトと極端なスケールの変動のために難しい問題である。
本稿では,物体検出のための焦点領域を適応的に拡大するために,フレキシブルな形状と焦点長を有する選択的拡大器として,新しい適応型Zoom(AdaZoom)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-19T03:30:22Z) - Reformulating HOI Detection as Adaptive Set Prediction [25.44630995307787]
我々は適応セット予測問題としてHOI検出を再構成する。
本稿では,並列インスタンスとインタラクションブランチを備えた適応型セットベースワンステージフレームワーク(as-net)を提案する。
この手法は、人間のポーズや言語的特徴を必要とせず、従来の最先端の手法を上回ります。
論文 参考訳(メタデータ) (2021-03-10T10:40:33Z) - Cross-modal Learning for Domain Adaptation in 3D Semantic Segmentation [11.895722159139108]
ドメイン適応はラベルが不足している場合の学習を可能にする重要なタスクである。
相互模倣による2つのモダリティの予測の整合性を実現するクロスモーダル学習を提案する。
我々は、ラベル付きデータに対する正確な予測とラベルなしのターゲットドメインデータに対するモダリティ間の一貫性のある予測をネットワークに制限する。
論文 参考訳(メタデータ) (2021-01-18T18:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。