論文の概要: Can we Trust Unreliable Voxels? Exploring 3D Semantic Occupancy Prediction under Label Noise
- arxiv url: http://arxiv.org/abs/2603.06279v1
- Date: Fri, 06 Mar 2026 13:40:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.803968
- Title: Can we Trust Unreliable Voxels? Exploring 3D Semantic Occupancy Prediction under Label Noise
- Title(参考訳): 信頼できないボクセルを信頼できるか? -ラベルノイズ下での3次元セマンティック占有予測-
- Authors: Wenxin Li, Kunyu Peng, Di Wen, Junwei Zheng, Jiale Wei, Mengfei Duan, Yuheng Zhang, Rui Fan, Kailun Yang,
- Abstract要約: 3Dセマンティック占有予測は、ロボット知覚の基盤となる。
実世界のボクセルアノテーションは、構造的アーティファクトと動的追従効果によって本質的に損なわれている。
自律システムは、そのような信頼できない要員の監督を安全に頼りにできるのだろうか?
- 参考スコア(独自算出の注目度): 32.19984914850378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D semantic occupancy prediction is a cornerstone of robotic perception, yet real-world voxel annotations are inherently corrupted by structural artifacts and dynamic trailing effects. This raises a critical but underexplored question: can autonomous systems safely rely on such unreliable occupancy supervision? To systematically investigate this issue, we establish OccNL, the first benchmark dedicated to 3D occupancy under occupancy-asymmetric and dynamic trailing noise. Our analysis reveals a fundamental domain gap: state-of-the-art 2D label noise learning strategies collapse catastrophically in sparse 3D voxel spaces, exposing a critical vulnerability in existing paradigms. To address this challenge, we propose DPR-Occ, a principled label noise-robust framework that constructs reliable supervision through dual-source partial label reasoning. By synergizing temporal model memory with representation-level structural affinity, DPR-Occ dynamically expands and prunes candidate label sets to preserve true semantics while suppressing noise propagation. Extensive experiments on SemanticKITTI demonstrate that DPR-Occ prevents geometric and semantic collapse under extreme corruption. Notably, even at 90% label noise, our method achieves significant performance gains (up to 2.57% mIoU and 13.91% IoU) over existing label noise learning baselines adapted to the 3D occupancy prediction task. By bridging label noise learning and 3D perception, OccNL and DPR-Occ provide a reliable foundation for safety-critical robotic perception in dynamic environments. The benchmark and source code will be made publicly available at https://github.com/mylwx/OccNL.
- Abstract(参考訳): 3Dセマンティック占有予測はロボット知覚の基盤となっているが、現実のボクセルアノテーションは構造的アーティファクトと動的追従効果によって本質的に損なわれている。
自律システムは、そのような信頼できない要員の監督を安全に頼りにできるのだろうか?
この問題を体系的に調査するため,我々は,3次元非対称および動的追従雑音下での3次元占有を目的とした最初のベンチマークであるOccNLを確立する。
最先端の2Dラベルによるノイズ学習戦略は、スパース3Dボクセル空間で破滅的に崩壊し、既存のパラダイムにおいて重大な脆弱性が露呈する。
この課題に対処するために、DPR-Occを提案する。DPR-Occは、デュアルソース部分ラベル推論による信頼性の高い監視を構築する、原則付きラベルノイズロバストフレームワークである。
DPR-Occは、時間モデルメモリを表現レベルの構造親和性で相乗化することにより、候補ラベルセットを動的に拡張してプーンし、ノイズ伝搬を抑制しながら真の意味を保ちます。
SemanticKITTIに関する大規模な実験は、DPR-Occが極端な腐敗の下で幾何的および意味的な崩壊を防ぐことを実証している。
特に、90%のラベルノイズであっても、既存のラベル学習ベースラインよりも高い性能(2.57% mIoU と 13.91% IoU )が得られる。
OccNLとDPR-Occはラベルのノイズ学習と3D知覚をブリッジすることで、動的環境における安全クリティカルなロボット知覚の信頼性の高い基盤を提供する。
ベンチマークとソースコードはhttps://github.com/mylwx/OccNLで公開される。
関連論文リスト
- Generalizing Abstention for Noise-Robust Learning in Medical Image Segmentation [2.597921446818458]
禁制機構はクロスエントロピーの能力を高めることによって分類タスクに有効であることが証明されている。
本稿では,多種多様な損失関数のノイズ・ロバスト性を向上させる,普遍的かつモジュラーな禁忌フレームワークを提案する。
本フレームワークは, 抑止動作を誘導する情報正規化項と, 抑止ペナルティのためのより柔軟な省力性に基づく自動チューニングアルゴリズムの2つの重要なコンポーネントによる事前作業を改善する。
論文 参考訳(メタデータ) (2026-01-20T14:57:56Z) - Photorealistic Phantom Roads in Real Scenes: Disentangling 3D Hallucinations from Physical Geometry [17.571800971505787]
本稿では、この不確実な安全性リスクを調査、定量化、テーム化する、エンドツーエンドのフレームワークを初めて紹介する。
提案する3D-Mirageは,正確な平面領域アノテーションと文脈制限作物を用いた実世界のイリュージョンの最初のベンチマークである。
そこで本稿では,非平面性向上のためのDefiation Composite Score (DCS) と文脈不安定性評価のためのConfusion Composite Score (CCS) の2つの指標を用いたラプラシアン評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-17T13:14:37Z) - Exploring Single Domain Generalization of LiDAR-based Semantic Segmentation under Imperfect Labels [28.96799571666756]
雑音ラベル(DGLSS-NL)に基づくLiDARのための新しいタスク領域一般化について紹介する。
既存の雑音ラベル学習アプローチは,LiDARデータに適合しないことがわかった。
特徴レベルの一貫性を強制し、予測の信頼度を考慮したフィルタリングに基づくクロスエントロピー損失を適用した、強い分岐と弱い分岐を持つデュアルビューフレームワークであるDuNeを提案する。
論文 参考訳(メタデータ) (2025-10-10T06:11:34Z) - Out-of-Distribution Semantic Occupancy Prediction [26.178096447889605]
本稿では,3次元ボクセル空間におけるOoD検出をターゲットとした,アウト・オブ・ディストリビューション・セマンティック・アクシデンシー予測を提案する。
OccOoDは,OoD検出をVoxel-BEVプログレッシブフュージョン(VBPF)を用いた3次元セマンティック占有予測に統合する新しいフレームワークである。
実験の結果、OccOoDはAuROC67.34%、AuPRCr29.21%で最先端のOoD検出を実現し、競合占有率予測性能を維持した。
論文 参考訳(メタデータ) (2025-06-26T12:44:29Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Semantic Scene Completion with Cleaner Self [93.99441599791275]
セマンティックシーンコンプリート(SSC)は、単一のビュー深さと/またはRGB 2Dピクセルの画像を3Dボクセルに変換し、それぞれのセマンティックラベルが予測される。
SSCは、予測モデルが目に見える表面の背後にあるものを「想像する」必要があるため、よく知られた偽装問題であり、通常はTrncated Signed Distance Function (TSDF) によって表される。
我々は3Dボクセルを用いて、TSDF-CADと呼ばれる完全な可視表面を生成し、次に「クリーン」なSSCモデルを訓練する。
モデルはノイズフリーなので、期待できる。
論文 参考訳(メタデータ) (2023-03-17T13:50:18Z) - UpCycling: Semi-supervised 3D Object Detection without Sharing Raw-level
Unlabeled Scenes [7.32610370107512]
UpCyclingは、3Dオブジェクト検出のための新しいSSLフレームワークである。
F-GT(F-GT)と回転(F-RoT)のハイブリッド擬似ラベルを導入する。
UpCyclingは、生のポイントシーンを利用する最先端のSSLメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-11-22T02:04:09Z) - GLENet: Boosting 3D Object Detectors with Generative Label Uncertainty Estimation [70.75100533512021]
本稿では,対象物の潜在的可算有界箱の多様性として,ラベルの不確実性問題を定式化する。
本稿では,条件付き変分オートエンコーダを応用した生成フレームワークであるGLENetを提案する。
GLENetが生成するラベルの不確実性はプラグアンドプレイモジュールであり、既存のディープ3D検出器に便利に統合することができる。
論文 参考訳(メタデータ) (2022-07-06T06:26:17Z) - Towards Adversarially Robust Deep Image Denoising [199.2458715635285]
本研究は,ディープ・イメージ・デノイザ(DID)の対角的ロバスト性について系統的に検討する。
本稿では,観測に基づくゼロ平均アタック(sc ObsAtk)という新たな敵攻撃を提案する。
DIDを頑健化するために,DIDと非対向雑音データとを併用したハイブリッド対向訓練(sc HAT)を提案する。
論文 参考訳(メタデータ) (2022-01-12T10:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。