論文の概要: ALOOD: Exploiting Language Representations for LiDAR-based Out-of-Distribution Object Detection
- arxiv url: http://arxiv.org/abs/2603.08180v1
- Date: Mon, 09 Mar 2026 10:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.752769
- Title: ALOOD: Exploiting Language Representations for LiDAR-based Out-of-Distribution Object Detection
- Title(参考訳): ALOOD:LiDARを用いたアウト・オブ・ディストリビューション・オブジェクト検出のためのエクスプロイト言語表現
- Authors: Michael Kösel, Marcel Schreiber, Michael Ulrich, Claudius Gläser, Klaus Dietmayer,
- Abstract要約: 視覚言語モデル(VLM)から言語表現を組み込んだ新しいアプローチであるALOOD (Aligned LiDAR representations for Out-Of-Distribution Detection)を提案する。
我々はnuScenes OODベンチマークで競合性能を示し、言語表現を用いたLiDARにおけるOODオブジェクト検出の新しいアプローチを確立した。
- 参考スコア(独自算出の注目度): 7.723612270510436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-based 3D object detection plays a critical role for reliable and safe autonomous driving systems. However, existing detectors often produce overly confident predictions for objects not belonging to known categories, posing significant safety risks. This is caused by so-called out-of-distribution (OOD) objects, which were not part of the training data, resulting in incorrect predictions. To address this challenge, we propose ALOOD (Aligned LiDAR representations for Out-Of-Distribution Detection), a novel approach that incorporates language representations from a vision-language model (VLM). By aligning the object features from the object detector to the feature space of the VLM, we can treat the detection of OOD objects as a zero-shot classification task. We demonstrate competitive performance on the nuScenes OOD benchmark, establishing a novel approach to OOD object detection in LiDAR using language representations. The source code is available at https://github.com/uulm-mrm/mmood3d.
- Abstract(参考訳): LiDARベースの3Dオブジェクト検出は、信頼性が高く安全な自動運転システムにおいて重要な役割を果たす。
しかし、既存の検出器は、既知のカテゴリに属さないオブジェクトに対して過度に自信を持って予測し、重大な安全性のリスクを生じさせる。
これは、トレーニングデータの一部ではないいわゆるアウト・オブ・ディストリビューション(OOD)オブジェクトによって引き起こされ、誤った予測がもたらされる。
この課題に対処するために、視覚言語モデル(VLM)から言語表現を組み込んだ新しいアプローチであるALOOD (Aligned LiDAR representations for Out-Of-Distribution Detection)を提案する。
オブジェクト検出器からVLMの特徴空間にオブジェクトの特徴を合わせることで、OODオブジェクトの検出をゼロショット分類タスクとして扱うことができる。
我々はnuScenes OODベンチマークで競合性能を示し、言語表現を用いたLiDARにおけるOODオブジェクト検出の新しいアプローチを確立した。
ソースコードはhttps://github.com/uulm-mrm/mmood3d.comで入手できる。
関連論文リスト
- RUNA: Object-level Out-of-Distribution Detection via Regional Uncertainty Alignment of Multimodal Representations [33.971901643313856]
RUNAは、アウト・オブ・ディストリビューション(OOD)オブジェクトを検出するための新しいフレームワークである。
これは、OODオブジェクトとIDを効果的に区別するために、地域不確実性アライメント機構を使用する。
実験の結果,RUNAはオブジェクトレベルのOOD検出において最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2025-03-28T10:01:55Z) - HD-OOD3D: Supervised and Unsupervised Out-of-Distribution object detection in LiDAR data [6.372261626436676]
HD-OOD3Dは未知の物体を検出するための新しい2段階法である。
未知の物体を学習する際の課題を解決するために,未知の物体に対して擬似ラベルを生成するための教師なしの訓練戦略を検討する。
論文 参考訳(メタデータ) (2024-10-31T09:29:55Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - Revisiting Out-of-Distribution Detection in LiDAR-based 3D Object Detection [12.633311483061647]
アウト・オブ・ディストリビューション(OOD)オブジェクトは誤分類を引き起こし、自動車両の安全性と信頼性に重大なリスクをもたらす。
我々は、ポイントクラウドを変更することなく既存のデータセットを使用できる新しい評価プロトコルを提案する。
提案手法の有効性は,新たに提案したnuScenes OODベンチマークを用いて検証した。
論文 参考訳(メタデータ) (2024-04-24T13:48:38Z) - Detecting Out-of-Distribution Objects through Class-Conditioned Inpainting [42.67743584239442]
現実のデプロイメントは、しばしば、out-of-distribution (OOD)オブジェクトと呼ばれる、新しく予期せぬオブジェクトを導入します。
現代の物体検出器は一般的に過信であり、その予測をOOD検出に単独で使用することは信用できない。
我々は,識別対象検出器と異なる目的関数で訓練された安定拡散のような,既製のテキスト・ツー・イメージ生成モデルを利用する。
論文 参考訳(メタデータ) (2024-02-05T18:50:27Z) - Exploring Large Language Models for Multi-Modal Out-of-Distribution
Detection [67.68030805755679]
大きな言語モデル(LLM)は豊富な世界の知識をエンコードし、クラスごとに記述的な特徴を生成するよう促すことができる。
本稿では,LLMの選択的生成によるOOD検出性能向上のための世界知識の適用を提案する。
論文 参考訳(メタデータ) (2023-10-12T04:14:28Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Language-Guided 3D Object Detection in Point Cloud for Autonomous
Driving [91.91552963872596]
我々は,LiDARグラウンディングと呼ばれるマルチモーダルな視覚的グラウンドニングタスクを提案する。
言語特徴を持つLiDARベースの物体検出器を共同で学習し、検出器から直接対象領域を予測する。
私たちの研究は、LiDARベースの接地作業に関する深い洞察を提供しており、自動運転コミュニティにとって有望な方向性を示すものと期待しています。
論文 参考訳(メタデータ) (2023-05-25T06:22:10Z) - Out-of-Distribution Detection for LiDAR-based 3D Object Detection [8.33476679218773]
3Dオブジェクト検出は、自動走行の重要な部分である。
ディープモデルは、高い信頼度スコアをアウト・オブ・ディストリビューション(OOD)入力に割り当てたことで知られる。
本稿では,LiDARを用いた3Dオブジェクト検出のためのOOD入力の検出に焦点をあてる。
論文 参考訳(メタデータ) (2022-09-28T21:39:25Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation [70.75100533512021]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。