論文の概要: Adaptive Entropy-Driven Sensor Selection in a Camera-LiDAR Particle Filter for Single-Vessel Tracking
- arxiv url: http://arxiv.org/abs/2603.08457v1
- Date: Mon, 09 Mar 2026 14:52:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.214613
- Title: Adaptive Entropy-Driven Sensor Selection in a Camera-LiDAR Particle Filter for Single-Vessel Tracking
- Title(参考訳): 単気筒追尾用カメラLiDAR粒子フィルタにおける適応エントロピー駆動型センサ選択
- Authors: Andrei Starodubov, Yaqub Aris Prabowo, Andreas Hadjipieris, Ioannis Kyriakides, Roberto Galeazzi,
- Abstract要約: 情報ゲイン適応センシングポリシを組み込んだ異種多センサ融合粒子フィルタトラッカーを提案する。
このアプローチはCMMI Smart Marina Testbed (Ayia Napa Marina, Cyprus)での実際の海上展開で検証されている。
その結果、LiDARは近接場精度で優位であり、LiDARが利用できなくなると、カメラは長距離のカバーを維持できることがわかった。
- 参考スコア(独自算出の注目度): 0.3914676152740142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust single-vessel tracking from fixed coastal platforms is hindered by modality-specific degradations: cameras suffer from illumination and visual clutter, while LiDAR performance drops with range and intermittent returns. We present a heterogeneous multi-sensor fusion particle-filter tracker that incorporates an information-gain (entropy-reduction) adaptive sensing policy to select the most informative configuration at each fusion time bin. The approach is validated in a real maritime deployment at the CMMI Smart Marina Testbed (Ayia Napa Marina, Cyprus), using a shore-mounted 3D LiDAR and an elevated fixed camera to track a rigid inflatable boat with onboard GNSS ground truth. We compare LiDAR-only, camera-only, all-sensors, and adaptive configurations. Results show LiDAR dominates near-field accuracy, the camera sustains longer-range coverage when LiDAR becomes unavailable, and the adaptive policy achieves a favorable accuracy-continuity trade-off by switching modalities based on information gain. By avoiding continuous multi-stream processing, the adaptive configuration provides a practical baseline for resilient and resource-aware maritime surveillance.
- Abstract(参考訳): 固定された海岸プラットフォームからのロバストな単一容器追跡は、カメラが照明と視覚的乱れに悩まされ、LiDARのパフォーマンスは、範囲と断続的なリターンとともに低下する、モダリティ固有の劣化によって妨げられている。
本稿では,情報ゲイン(エントロピー還元)適応センシングポリシーを組み込んだ異種多元融合粒子フィルタトラッカーについて述べる。
このアプローチは、CMMI Smart Marina Testbed(キプロス州アイア・ナパ・マリーナ)の海上配備で、陸上に搭載された3D LiDARと高機能固定カメラを使って、GNSSの地上真実が載っている硬いインフレータブルボートを追跡する。
我々はLiDARのみ、カメラのみ、全センサー、適応構成を比較した。
その結果、LiDARは近接場精度を優位にし、LiDARが利用できなくなるとカメラは長距離カバレッジを維持し、適応ポリシーは情報ゲインに基づいてモダリティを切り替えることで良好な精度・連続トレードオフを実現する。
継続的マルチストリーム処理を避けることで、適応的な構成は、回復力とリソースを意識した海洋監視のための実用的なベースラインを提供する。
関連論文リスト
- End-to-End LiDAR optimization for 3D point cloud registration [10.662051602024944]
LiDARセンサーは3D知覚の重要なモダリティであるが、通常、ポイントクラウドの登録のような下流のタスクとは独立して設計されている。
本研究では,センサパラメータを動的に調整する適応型LiDARセンシングフレームワークを提案する。
提案手法は, 位置密度, 雑音, 空間のバランスを最適に調整し, 登録精度と効率を向上する。
論文 参考訳(メタデータ) (2026-02-11T03:51:10Z) - Li-ViP3D++: Query-Gated Deformable Camera-LiDAR Fusion for End-to-End Perception and Trajectory Prediction [0.0]
Li-ViP3D++はクエリベースである。
エンドツーエンドのアテンションフレームワーク。
生のセンサーデータからの知覚と軌道予測。
論文 参考訳(メタデータ) (2026-01-28T15:53:32Z) - LiteFusion: Taming 3D Object Detectors from Vision-Based to Multi-Modal with Minimal Adaptation [23.72983078807998]
現在の3Dオブジェクト検出器は、高い検出精度を達成するために複雑なアーキテクチャとトレーニング戦略に依存している。
これらの方法はLiDARセンサーに大きく依存しているため、LiDARが欠如している場合に大きな性能低下に悩まされる。
我々は,LiDAR点からの相補的特徴を四元数空間内の画像特徴に統合する,新しい多モード3D検出器LiteFusionを導入する。
論文 参考訳(メタデータ) (2025-12-23T10:16:33Z) - Targetless LiDAR-Camera Calibration with Neural Gaussian Splatting [28.41267004945046]
本稿では,ニューラルベースガウス表現と協調してセンサポーズを最適化するTLC(Targetless LiDAR scene)を提案する。
光度および幾何正則化による完全微分可能なパイプラインは、ロバストで一般化可能なキャリブレーションを実現する。
論文 参考訳(メタデータ) (2025-04-06T20:00:01Z) - Targetless 6DoF Calibration of LiDAR and 2D Scanning Radar Based on Cylindrical Occupancy [8.895838973148452]
LiRaCoは、LiDARとレーダーセンサーの外部6DoFキャリブレーションのためのターゲットレスキャリブレーションアプローチである。
LiRaCoは、LiDAR点雲とRadarスキャンの間の空間占有一貫性を共通円筒表現で活用する。
外部キャリブレーションパラメータを含むコスト関数は、3次元格子とLiDAR点の空間的重なりに基づいて定式化する。
論文 参考訳(メタデータ) (2025-03-21T10:09:04Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - LIF-Seg: LiDAR and Camera Image Fusion for 3D LiDAR Semantic
Segmentation [78.74202673902303]
本稿では,LiDAR分割のための粗大なLiDARとカメラフュージョンベースネットワーク(LIF-Seg)を提案する。
提案手法は,画像の文脈情報を完全に活用し,単純だが効果的な早期融合戦略を導入する。
これら2つのコンポーネントの協力により、効果的なカメラ-LiDAR融合が成功する。
論文 参考訳(メタデータ) (2021-08-17T08:53:11Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。