論文の概要: Relative Energy Learning for LiDAR Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2511.06720v1
- Date: Mon, 10 Nov 2025 05:29:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.089113
- Title: Relative Energy Learning for LiDAR Out-of-Distribution Detection
- Title(参考訳): LiDARアウトオブディストリビューション検出のための相対エネルギー学習
- Authors: Zizhao Li, Zhengkang Xiang, Jiayang Ao, Joseph West, Kourosh Khoshelham,
- Abstract要約: アウト・オブ・ディストリビューション(OOD)検出は信頼性の高い自動運転にとって重要な要件である。
我々は,LiDAR点雲におけるOOD検出のためのフレームワークであるRelative Energy Learning (REL)を提案する。
トレーニング中のOODサンプルの欠如に対処するため,ポイントゲインと呼ばれる軽量なデータ合成戦略を提案する。
- 参考スコア(独自算出の注目度): 2.9740664660400804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Out-of-distribution (OOD) detection is a critical requirement for reliable autonomous driving, where safety depends on recognizing road obstacles and unexpected objects beyond the training distribution. Despite extensive research on OOD detection in 2D images, direct transfer to 3D LiDAR point clouds has been proven ineffective. Current LiDAR OOD methods struggle to distinguish rare anomalies from common classes, leading to high false-positive rates and overconfident errors in safety-critical settings. We propose Relative Energy Learning (REL), a simple yet effective framework for OOD detection in LiDAR point clouds. REL leverages the energy gap between positive (in-distribution) and negative logits as a relative scoring function, mitigating calibration issues in raw energy values and improving robustness across various scenes. To address the absence of OOD samples during training, we propose a lightweight data synthesis strategy called Point Raise, which perturbs existing point clouds to generate auxiliary anomalies without altering the inlier semantics. Evaluated on SemanticKITTI and the Spotting the Unexpected (STU) benchmark, REL consistently outperforms existing methods by a large margin. Our results highlight that modeling relative energy, combined with simple synthetic outliers, provides a principled and scalable solution for reliable OOD detection in open-world autonomous driving.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、トレーニング分布を超えた道路障害物や予期せぬ物体を認識することに依存する、信頼性の高い自動運転にとって重要な要件である。
2D画像におけるOOD検出の広範な研究にもかかわらず、3D LiDAR点雲への直接転送は効果がないことが証明されている。
現在のLiDAR OOD法は、一般的なクラスと稀な異常を区別するのに苦労している。
本稿では,LiDAR 点群における OOD 検出のための簡易かつ効果的なフレームワークである Relative Energy Learning (REL) を提案する。
RELは、正(分配中)と負のロジットの間のエネルギーギャップを相対的なスコア関数として利用し、原エネルギー値の校正問題を緩和し、様々な場面で堅牢性を向上させる。
トレーニング中のOODサンプルの欠如に対処するため,既存の点群を摂動させ,不合理な意味論を変えることなく補助的異常を生成する,ポイントアップと呼ばれる軽量なデータ合成戦略を提案する。
SemanticKITTI と Spotting the Unexpected (STU) のベンチマークで評価すると、REL は既存の手法よりずっと優れています。
この結果から, 簡単な合成異常値と組み合わさった相対エネルギーのモデリングは, オープンワールド自動運転における信頼性の高いOOD検出に, 原理的かつスケーラブルなソリューションを提供することがわかった。
関連論文リスト
- GOOD: Training-Free Guided Diffusion Sampling for Out-of-Distribution Detection [61.96025941146103]
GOODは,オフザシェルフ内分布(ID)分類器を用いて,OOD領域へのサンプリングトラジェクトリを誘導する新しいフレームワークである。
入力可能性を減らすためにログパーティションの勾配に基づいた画像レベルのガイダンスは、ピクセル空間内の低密度領域に向けてサンプルを駆動する。
我々は、画像と特徴の相違を適応的に組み合わせ、検出の堅牢性を向上する統一OODスコアを導入する。
論文 参考訳(メタデータ) (2025-10-20T03:58:46Z) - Evidential Spectrum-Aware Contrastive Learning for OOD Detection in Dynamic Graphs [17.750640850821622]
動的グラフにおけるアウト・オブ・ディストリビューション(OOD)検出は、受信したデータがイン・ディストリビューション(ID)トレーニングセットの分布から逸脱するかどうかを特定することを目的としている。
我々は、Evidential Spectrum-awarE Contrastive Learningを用いた、革新的で効果的なOOD検出器であるEviSECを提案する。
論文 参考訳(メタデータ) (2025-06-09T04:34:46Z) - FEVER-OOD: Free Energy Vulnerability Elimination for Robust Out-of-Distribution Detection [12.139516247199179]
自由エネルギースコア定式化(OOD)における未探索および固有の脆弱性について検討した。
最終線形層の最小特異値を最大化するために, 新規な正則化を導入し, サンプル間自由エネルギー分離を向上する。
実験の結果, FEVER-OOD法は画像ネット100におけるOOD検出の状態を達成し, 平均OOD偽陽性率(95%真正率)は35.83%であった。
論文 参考訳(メタデータ) (2024-12-02T15:15:24Z) - AUTO: Adaptive Outlier Optimization for Test-Time OOD Detection [79.51071170042972]
Out-of-Distribution (OOD) 検出は、任意のトレーニングインディストリビューション(ID)クラスに該当しないテストサンプルを検出することを目的としている。
データ安全性とプライバシにより、さまざまなシナリオに対して、事前にタスク固有の外れ値の収集が不可能になる。
テスト中にラベルのないデータストリームから実際のOODデータを利用することができる。
論文 参考訳(メタデータ) (2023-03-22T02:28:54Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - RODD: A Self-Supervised Approach for Robust Out-of-Distribution
Detection [12.341250124228859]
本稿では,分散データセットに依存しない簡易かつ効果的なOOD検出手法を提案する。
提案手法は, コンパクトな低次元空間上に埋没するトレーニングサンプルの自己教師型特徴学習に依存する。
自己教師付きコントラスト学習を用いた事前学習モデルでは、潜伏空間における一次元特徴学習のより良いモデルが得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-06T03:05:58Z) - Provably Robust Detection of Out-of-distribution Data (almost) for free [124.14121487542613]
ディープニューラルネットワークは、アウト・オブ・ディストリビューション(OOD)データに対する高い過度な予測を生成することが知られている。
本稿では,認証可能なOOD検出器を標準分類器と組み合わせてOOD認識分類器を提案する。
このようにして、我々は2つの世界のベストを達成している。OOD検出は、分布内に近いOODサンプルであっても、予測精度を損なうことなく、非操作型OODデータに対する最先端のOOD検出性能に近接する。
論文 参考訳(メタデータ) (2021-06-08T11:40:49Z) - Robust Out-of-distribution Detection for Neural Networks [51.19164318924997]
既存の検出機構は, 分布内およびOOD入力の評価において, 極めて脆弱であることを示す。
ALOE と呼ばれる実効性のあるアルゴリズムを提案する。このアルゴリズムは,逆向きに構築された逆数と外数の両方の例にモデルを公開することにより,堅牢なトレーニングを行う。
論文 参考訳(メタデータ) (2020-03-21T17:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。