論文の概要: No Thing, Nothing: Highlighting Safety-Critical Classes for Robust LiDAR Semantic Segmentation in Adverse Weather
- arxiv url: http://arxiv.org/abs/2503.15910v2
- Date: Mon, 24 Mar 2025 12:16:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 11:09:43.432246
- Title: No Thing, Nothing: Highlighting Safety-Critical Classes for Robust LiDAR Semantic Segmentation in Adverse Weather
- Title(参考訳): No Thing, nothing: Highlighting Safety-Critical Classs for Robust LiDAR Semantic Segmentation in Subverse Weather (特集:ユビキタス・バイオサイバネティックス)
- Authors: Junsung Park, Hwijeong Lee, Inha Kang, Hyunjung Shim,
- Abstract要約: 典型的な運転シーンでは、"物"カテゴリーは動的であり、衝突のリスクが高いため、安全なナビゲーションと計画に不可欠である。
悪天候は意味レベルの特徴の劣化と局所的特徴の悪化を招き,「もの」を「足」と誤認する原因となることを観察した。
- 参考スコア(独自算出の注目度): 12.21067396864105
- License:
- Abstract: Existing domain generalization methods for LiDAR semantic segmentation under adverse weather struggle to accurately predict "things" categories compared to "stuff" categories. In typical driving scenes, "things" categories can be dynamic and associated with higher collision risks, making them crucial for safe navigation and planning. Recognizing the importance of "things" categories, we identify their performance drop as a serious bottleneck in existing approaches. We observed that adverse weather induces degradation of semantic-level features and both corruption of local features, leading to a misprediction of "things" as "stuff". To mitigate these corruptions, we suggest our method, NTN - segmeNt Things for No-accident. To address semantic-level feature corruption, we bind each point feature to its superclass, preventing the misprediction of things classes into visually dissimilar categories. Additionally, to enhance robustness against local corruption caused by adverse weather, we define each LiDAR beam as a local region and propose a regularization term that aligns the clean data with its corrupted counterpart in feature space. NTN achieves state-of-the-art performance with a +2.6 mIoU gain on the SemanticKITTI-to-SemanticSTF benchmark and +7.9 mIoU on the SemanticPOSS-to-SemanticSTF benchmark. Notably, NTN achieves a +4.8 and +7.9 mIoU improvement on "things" classes, respectively, highlighting its effectiveness.
- Abstract(参考訳): 悪天候下でのLiDARセマンティックセグメンテーションのための既存の領域一般化手法は、"stuff"カテゴリと比較して、"things"カテゴリを正確に予測する。
典型的な運転シーンでは、"物"カテゴリーは動的であり、衝突のリスクが高いため、安全なナビゲーションと計画に不可欠である。
カテゴリの重要性を認識し、既存のアプローチにおいてパフォーマンス低下が深刻なボトルネックであると認識します。
悪天候は意味レベルの特徴の劣化を招き,局所的な特徴の腐敗を招き,「もの」を「足」と誤認する結果となった。
これらの汚職を緩和するため、我々はNTN - segmeNt Things for No-accidentを提案する。
意味レベルの特徴の破損に対処するため、各点特徴をスーパークラスにバインドし、物事のクラスを視覚的に異なるカテゴリに誤認しないようにする。
さらに, 悪天候による局地汚損に対するロバスト性を高めるため, 各LiDARビームを局所領域として定義し, クリーンデータと特徴空間の汚損データとを整合させる正規化項を提案する。
NTNはSemanticKITTI-to-SemanticSTFベンチマークで+2.6 mIoU、SemanticPOSS-to-SemanticSTFベンチマークで+7.9 mIoUを獲得している。
特に、NTN は "things" クラスで +4.8 と +7.9 mIoU の改善を実現し、その効果を強調している。
関連論文リスト
- Investigating the Limitation of CLIP Models: The Worst-Performing
Categories [53.360239882501325]
コントラスト言語-画像事前学習(CLIP)は、自然言語を視覚概念に統合する基礎モデルを提供する。
通常、十分に設計されたテキストプロンプトによって、多くの領域で満足な全体的な精度が達成できると期待されている。
しかし、最悪のカテゴリにおけるパフォーマンスは、全体的なパフォーマンスよりも著しく劣っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T05:37:33Z) - EdaDet: Open-Vocabulary Object Detection Using Early Dense Alignment [28.983503845298824]
本稿では,一般化可能な局所意味論とオブジェクトレベルの予測とのギャップを埋めるために,早期Dense Alignment (EDA)を提案する。
EDAでは、局所的なきめ細かなセマンティクスを維持するために、オブジェクトレベルのアライメントではなく、オブジェクトレベルのインシデントを学習するためにオブジェクトレベルのインシデントを使用します。
論文 参考訳(メタデータ) (2023-09-03T12:04:14Z) - DAFD: Domain Adaptation via Feature Disentanglement for Image
Classification [8.575537779033263]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに学習した知識を転送することで、ドメインシフトを減らす。
カテゴリ関連特徴を蒸留し,グローバルな特徴マップからカテゴリ関連特徴を除外することにより,UDAの特徴のゆがみを行う。
これにより、ドメインアライメントの困難が軽減され、ターゲットドメインの分類精度が向上する。
論文 参考訳(メタデータ) (2023-01-30T23:51:44Z) - Cluster-to-adapt: Few Shot Domain Adaptation for Semantic Segmentation
across Disjoint Labels [80.05697343811893]
クラスタ・トゥ・アダプティブ(Cluster-to-Adapt, C2A)は、セグメンテーションデータセット間のドメイン適応のための、計算的に効率的なクラスタリングベースのアプローチである。
変換された特徴空間に強制されるそのようなクラスタリングの目的は、ソースドメインとターゲットドメインのカテゴリを自動的に選択するのに役立つことを示す。
論文 参考訳(メタデータ) (2022-08-04T17:57:52Z) - Exploiting a Joint Embedding Space for Generalized Zero-Shot Semantic
Segmentation [25.070027668717422]
一般化ゼロショットセマンティックセマンティックセグメンテーション(GZS3)は、見えないクラスと見えないクラスのピクセルワイズセマンティックラベルを予測する。
ほとんどのGZS3メソッドは、対応するセマンティックなクラスから見えないクラスの視覚的特徴を合成する生成的アプローチを採用している。
統一されたフレームワークにおける制限に対処するための差別的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-14T13:33:58Z) - MeGA-CDA: Memory Guided Attention for Category-Aware Unsupervised Domain
Adaptive Object Detection [80.24165350584502]
カテゴリ対応ドメイン適応のためのメモリガイドアテンションを提案する。
提案手法は,カテゴリー分類器を用いてカテゴリ認識特徴のアライメントを保証する。
この方法はいくつかのベンチマークデータセットで評価され、既存のアプローチを上回ることが示されています。
論文 参考訳(メタデータ) (2021-03-07T01:08:21Z) - Domain Adversarial Fine-Tuning as an Effective Regularizer [80.14528207465412]
自然言語処理(NLP)では、下流タスクに転送される事前訓練された言語モデル(LM)が、最先端の結果を得るために最近示されている。
標準的な微調整は、事前トレーニング中にキャプチャされた汎用ドメイン表現を分解することができる。
本稿では,新しい正規化手法である After; 有効正規化器としてのドメイン・アダクショナル・ファイン・チューニングを提案する。
論文 参考訳(メタデータ) (2020-09-28T14:35:06Z) - ISSAFE: Improving Semantic Segmentation in Accidents by Fusing
Event-based Data [34.36975697486129]
本稿では,事故シナリオにおけるセマンティックセグメンテーションに関する課題を,事故データセットDADA-segとともに提示する。
イベントベースのマルチモーダルセグメンテーションアーキテクチャISSAFEを提案する。
提案手法は, 提案した評価セットに対して+8.2% mIoUの性能向上を達成し, 10以上の最先端セグメンテーション法を克服する。
論文 参考訳(メタデータ) (2020-08-20T14:03:34Z) - Attribute-Induced Bias Eliminating for Transductive Zero-Shot Learning [144.94728981314717]
本稿では,トランスダクティブZSLのためのAttribute-induced Bias Elimination (AIBE)モジュールを提案する。
2つのドメイン間の視覚的バイアスに対して、Mean-Teacherモジュールは2つのドメイン間の視覚的表現の相違をブリッジするために最初に利用される。
注目グラフ属性の埋め込みは、目に見えないカテゴリと見えないカテゴリ間の意味バイアスを減らすために提案される。
最後に、目に見えない領域のセマンティック・視覚的バイアスに対して、目に見えないセマンティックアライメント制約は、教師なしの方法で視覚空間とセマンティック空間を整列するように設計されている。
論文 参考訳(メタデータ) (2020-05-31T02:08:01Z) - Don't Judge an Object by Its Context: Learning to Overcome Contextual
Bias [113.44471186752018]
既存のモデルは、認識精度を向上させるために、オブジェクトとそのコンテキスト間の共起を利用することが多い。
この研究は、学習した特徴表現の堅牢性を改善するために、そのような文脈バイアスに対処することに焦点を当てている。
論文 参考訳(メタデータ) (2020-01-09T18:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。