論文の概要: RGB-Event HyperGraph Prompt for Kilometer Marker Recognition based on Pre-trained Foundation Models
- arxiv url: http://arxiv.org/abs/2602.22026v1
- Date: Wed, 25 Feb 2026 15:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.887331
- Title: RGB-Event HyperGraph Prompt for Kilometer Marker Recognition based on Pre-trained Foundation Models
- Title(参考訳): RGB-Event HyperGraph Prompt for Kilometer Marker Recognition based on Pre-trained Foundation Models (特集 バイオサイバネティックスとバイオサイバネティックス)
- Authors: Xiaoyu Xian, Shiao Wang, Xiao Wang, Daxin Tian, Yan Tian,
- Abstract要約: イベントカメラの認識システムへの統合について検討し、低照度環境、高速シナリオ、低消費電力の利点を生かした。
具体的には,KMR(Kilometer Marker Recognition)に注目した。
5,599組の同期RGB-Eventサンプルを含む,最初の大規模RGB-EventデータセットであるEvMetro5Kを構築した。
- 参考スコア(独自算出の注目度): 18.021236606193728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metro trains often operate in highly complex environments, characterized by illumination variations, high-speed motion, and adverse weather conditions. These factors pose significant challenges for visual perception systems, especially those relying solely on conventional RGB cameras. To tackle these difficulties, we explore the integration of event cameras into the perception system, leveraging their advantages in low-light conditions, high-speed scenarios, and low power consumption. Specifically, we focus on Kilometer Marker Recognition (KMR), a critical task for autonomous metro localization under GNSS-denied conditions. In this context, we propose a robust baseline method based on a pre-trained RGB OCR foundation model, enhanced through multi-modal adaptation. Furthermore, we construct the first large-scale RGB-Event dataset, EvMetro5K, containing 5,599 pairs of synchronized RGB-Event samples, split into 4,479 training and 1,120 testing samples. Extensive experiments on EvMetro5K and other widely used benchmarks demonstrate the effectiveness of our approach for KMR. Both the dataset and source code will be released on https://github.com/Event-AHU/EvMetro5K_benchmark
- Abstract(参考訳): メトロの列車は、照明のバリエーション、高速な動き、悪天候を特徴とする非常に複雑な環境で運行されることが多い。
これらの要因は、特に従来のRGBカメラにのみ依存している視覚認識システムに重大な課題をもたらす。
これらの課題に対処するため、我々は、低照度条件、高速シナリオ、低消費電力の利点を生かして、イベントカメラを知覚システムに統合することを検討する。
具体的には,GNSSの条件下での自律型メトロローカライゼーションの重要課題であるKMR(Kilometer Marker Recognition)に着目した。
本稿では,マルチモーダル適応により強化されたRGB OCR基盤モデルに基づくロバストなベースライン手法を提案する。
さらに,5,599組の同期RGB-Eventサンプルを含む最初の大規模RGB-EventデータセットであるEvMetro5Kを構築し,4,479のトレーニングと1,120のテストサンプルに分割した。
EvMetro5Kや他の広く使われているベンチマークに関する大規模な実験は、我々のKMRに対するアプローチの有効性を実証している。
データセットとソースコードは、https://github.com/Event-AHU/EvMetro5K_benchmarkでリリースされる。
関連論文リスト
- Decoupling Amplitude and Phase Attention in Frequency Domain for RGB-Event based Visual Object Tracking [51.31378940976401]
既存のRGB-Eventトラッキングアプローチでは、イベントカメラのユニークな利点を完全に活用できない。
本稿では,周波数領域の早期融合を実現する新しい追跡フレームワークを提案する。
FE108, FELT, COESOTなど, 広く使用されている3つのRGB-Event追跡ベンチマークデータセットの実験により, 提案手法の性能と効率を実証した。
論文 参考訳(メタデータ) (2026-01-03T01:10:17Z) - HyPSAM: Hybrid Prompt-driven Segment Anything Model for RGB-Thermal Salient Object Detection [75.406055413928]
RGB-T SODのための新しいプロンプト駆動セグメントモデル(HyPSAM)を提案する。
DFNetは動的畳み込みとマルチブランチデコーディングを使用して、適応的な相互モダリティ相互作用を促進する。
3つの公開データセットの実験により,本手法が最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2025-09-23T07:32:11Z) - Human Activity Recognition using RGB-Event based Sensors: A Multi-modal Heat Conduction Model and A Benchmark Dataset [65.76480665062363]
人間の活動認識は主に、高性能な活動認識を実現するために従来のRGBカメラに依存していた。
照明不足や急激な動きといった現実のシナリオにおける課題は、必然的にRGBカメラの性能を低下させる。
本研究では,RGBとイベントカメラを組み合わせることで,人間の活動認識を再考する。
論文 参考訳(メタデータ) (2025-04-08T09:14:24Z) - Multi-modal Multi-platform Person Re-Identification: Benchmark and Method [58.59888754340054]
MP-ReIDは、マルチモダリティとマルチプラットフォームReIDに特化した新しいデータセットである。
このベンチマークは、RGB、赤外線、サーマルイメージングなど、さまざまなモードで1,930のIDからデータをコンパイルする。
クロスモダリティとクロスプラットフォームシナリオに適した,特定設計のプロンプトを備えたフレームワークであるUni-Prompt ReIDを紹介する。
論文 参考訳(メタデータ) (2025-03-21T12:27:49Z) - RGB-Sonar Tracking Benchmark and Spatial Cross-Attention Transformer Tracker [4.235252053339947]
本稿では,新しいRGB-Sonar(RGB-S)トラッキングタスクを提案する。
RGBとソナーモダリティの相互作用により、水中の標的の効率的な追跡を実現する方法について検討する。
論文 参考訳(メタデータ) (2024-06-11T12:01:11Z) - Chasing Day and Night: Towards Robust and Efficient All-Day Object Detection Guided by an Event Camera [8.673063170884591]
EOLOは、RGBとイベントモダリティの両方を融合させることで、堅牢で効率的な全日検出を実現する、新しいオブジェクト検出フレームワークである。
我々のEOLOフレームワークは、イベントの非同期特性を効率的に活用するために、軽量スパイキングニューラルネットワーク(SNN)に基づいて構築されている。
論文 参考訳(メタデータ) (2023-09-17T15:14:01Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。