論文の概要: RoEL: Robust Event-based 3D Line Reconstruction
- arxiv url: http://arxiv.org/abs/2602.18258v1
- Date: Fri, 20 Feb 2026 14:43:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.352828
- Title: RoEL: Robust Event-based 3D Line Reconstruction
- Title(参考訳): RoEL:ロバストなイベントベース3Dライン再構築
- Authors: Gwangtak Bae, Jaeho Shin, Seunggu Kang, Junho Kim, Ayoung Kim, Young Min Kim,
- Abstract要約: 動き中のイベントカメラは、オブジェクトの境界やテクスチャエッジを検出する傾向があり、明るさの変化の線を生成する。
そこで本稿では,ラインの外観の異なるトラックを安定して抽出する手法を提案する。
次に,3次元ラインマップとカメラポーズを改良する幾何学的コスト関数を提案する。
- 参考スコア(独自算出の注目度): 24.307012329340825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras in motion tend to detect object boundaries or texture edges, which produce lines of brightness changes, especially in man-made environments. While lines can constitute a robust intermediate representation that is consistently observed, the sparse nature of lines may lead to drastic deterioration with minor estimation errors. Only a few previous works, often accompanied by additional sensors, utilize lines to compensate for the severe domain discrepancies of event sensors along with unpredictable noise characteristics. We propose a method that can stably extract tracks of varying appearances of lines using a clever algorithmic process that observes multiple representations from various time slices of events, compensating for potential adversaries within the event data. We then propose geometric cost functions that can refine the 3D line maps and camera poses, eliminating projective distortions and depth ambiguities. The 3D line maps are highly compact and can be equipped with our proposed cost function, which can be adapted for any observations that can detect and extract line structures or projections of them, including 3D point cloud maps or image observations. We demonstrate that our formulation is powerful enough to exhibit a significant performance boost in event-based mapping and pose refinement across diverse datasets, and can be flexibly applied to multimodal scenarios. Our results confirm that the proposed line-based formulation is a robust and effective approach for the practical deployment of event-based perceptual modules. Project page: https://gwangtak.github.io/roel/
- Abstract(参考訳): 運動中のイベントカメラは物体の境界やテクスチャエッジを検知する傾向があり、特に人工環境において、明るさの変化の線を生成する。
線は、一貫して観察される頑健な中間表現を構成することができるが、直線のスパースな性質は、わずかな推定誤差で劇的な劣化を引き起こす可能性がある。
追加のセンサーが付属する以前の研究は、予測不可能なノイズ特性とともに、イベントセンサーの厳しい領域の差異を補うために、ラインを利用することが多い。
イベントの時間スライスから複数の表現を観測し、イベントデータ中の潜在的な敵を補償する、巧妙なアルゴリズムプロセスを用いて、行の出現の異なるトラックを安定して抽出する手法を提案する。
次に,3次元ラインマップとカメラポーズを改良し,投影歪みや深さのあいまいさを解消する幾何学的コスト関数を提案する。
3次元線図は非常にコンパクトで,提案したコスト関数を組み込むことで,3次元点雲図や画像観測など,線の構造や投影を検出・抽出することができる。
我々の定式化は、イベントベースのマッピングにおいて大きなパフォーマンス向上を示すのに十分強力であり、多様なデータセットにまたがる洗練を図り、マルチモーダルシナリオに柔軟に適用できることを示す。
提案したラインベース定式化は,イベントベース知覚モジュールの実用的展開において,堅牢かつ効果的なアプローチであることを確認した。
プロジェクトページ: https://gwangtak.github.io/roel/
関連論文リスト
- DMP-3DAD: Cross-Category 3D Anomaly Detection via Realistic Depth Map Projection with Few Normal Samples [15.21047221062711]
3次元点雲のカテゴリ間異常検出は、見えない物体が対象カテゴリーに属するかどうかを判定することを目的としている。
既存のほとんどのメソッドはカテゴリ固有のトレーニングに依存しており、数ショットのシナリオでは柔軟性が制限される。
DMP-3DADは、マルチビューリアルな深度マップ投影に基づく3次元異常検出のための訓練不要フレームワークである。
論文 参考訳(メタデータ) (2026-02-11T12:47:38Z) - Robust 3D Object Detection using Probabilistic Point Clouds from Single-Photon LiDARs [29.92823252627008]
LiDARベースの3Dセンサーは、様々なシーン理解タスクで使用される標準的な3D表現である点雲を提供する。
現代のLiDARは、長距離や低アルベドオブジェクトのようないくつかの現実のシナリオで課題に直面し、スパースや誤点雲を発生させる。
本稿では,各点を確率属性で拡張した新しい3次元シーン表現である確率点雲(PPC)を提案する。
論文 参考訳(メタデータ) (2025-07-31T21:32:21Z) - PointVDP: Learning View-Dependent Projection by Fireworks Rays for 3D Point Cloud Segmentation [66.00721801098574]
本稿では,ポイントクラウドのセグメンテーションを容易にするために,ビュー依存プロジェクション(VDP)を提案する。
VDPは3Dポイント分布からデータ駆動プロジェクションを生成する。
フレームワークを最適化するために色規則化を構築します。
論文 参考訳(メタデータ) (2025-07-09T07:44:00Z) - Cross-Modal Semi-Dense 6-DoF Tracking of an Event Camera in Challenging
Conditions [29.608665442108727]
イベントベースのカメラはバイオインスパイアされた視覚センサーであり、HDR条件でよく機能し、時間分解能が高い。
本研究は、代替センサのマッピングが許された場合、純粋にイベントベースのトラッキングの実現可能性を示す。
この手法は、半密度マップとイベントの幾何学的3D-2D登録に依存しており、信頼性が高く正確なクロスモーダル追跡結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T01:48:45Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Differentiable Event Stream Simulator for Non-Rigid 3D Tracking [82.56690776283428]
我々の微分可能シミュレータは、イベントストリームから変形可能なオブジェクトの非剛性3D追跡を可能にする。
様々な種類の非剛体物体に対するアプローチの有効性を示し, 既存の非剛体3次元追跡手法と比較した。
論文 参考訳(メタデータ) (2021-04-30T17:58:07Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。