論文の概要: SASep: Saliency-Aware Structured Separation of Geometry and Feature for Open Set Learning on Point Clouds
- arxiv url: http://arxiv.org/abs/2506.13224v1
- Date: Mon, 16 Jun 2025 08:22:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.795862
- Title: SASep: Saliency-Aware Structured Separation of Geometry and Feature for Open Set Learning on Point Clouds
- Title(参考訳): SASep: 幾何の構造的分離と点雲における開集合学習の特徴
- Authors: Jinfeng Xu, Xianzhi Li, Yuan Tang, Xu Han, Qiao Yu, Yixue Hao, Long Hu, Min Chen,
- Abstract要約: 本稿では,3次元物体認識のためのSalience-Aware Structured separation (SASep)を提案する。
SASepは、(i)意味論的分解(TSD)モジュールで、オブジェクトを重要かつ重要でない部分に意味的に分解し、(ii)擬似未知のオブジェクトを生成する幾何学的戦略(GSS)モジュールと、(iii)特徴レベルの分離を強化するための合成支援マージン分離(SMS)モジュールを含む。
実験の結果, SASepは3次元OSRにおいて優れた性能を示し, 既存の最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 22.753452376062565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in deep learning have greatly enhanced 3D object recognition, but most models are limited to closed-set scenarios, unable to handle unknown samples in real-world applications. Open-set recognition (OSR) addresses this limitation by enabling models to both classify known classes and identify novel classes. However, current OSR methods rely on global features to differentiate known and unknown classes, treating the entire object uniformly and overlooking the varying semantic importance of its different parts. To address this gap, we propose Salience-Aware Structured Separation (SASep), which includes (i) a tunable semantic decomposition (TSD) module to semantically decompose objects into important and unimportant parts, (ii) a geometric synthesis strategy (GSS) to generate pseudo-unknown objects by combining these unimportant parts, and (iii) a synth-aided margin separation (SMS) module to enhance feature-level separation by expanding the feature distributions between classes. Together, these components improve both geometric and feature representations, enhancing the model's ability to effectively distinguish known and unknown classes. Experimental results show that SASep achieves superior performance in 3D OSR, outperforming existing state-of-the-art methods.
- Abstract(参考訳): ディープラーニングの最近の進歩は、3Dオブジェクト認識を大幅に強化しているが、ほとんどのモデルはクローズドセットのシナリオに限られており、現実世界のアプリケーションでは未知のサンプルを処理できない。
オープンセット認識(OSR)はこの制限に対処し、モデルが既知のクラスを分類し、新しいクラスを識別できるようにする。
しかし、現在のOSRメソッドは、既知のクラスと未知のクラスを区別するためにグローバルな機能に依存しており、オブジェクト全体を一様に扱い、その異なる部分の様々な意味的重要性を見落としている。
このギャップに対処するため、我々はSalience-Aware Structured Separation (SASep)を提案する。
i) オブジェクトを重要かつ重要でない部分に意味的に分解する調整可能な意味分解(TSD)モジュール。
(二)これらの重要でない部分を組み合わせて擬似未知の物体を生成する幾何学的合成戦略(GSS)
三 クラス間の特徴分布を拡大し、特徴レベルの分離を強化するための合成支援マージン分離(SMS)モジュール。
これらのコンポーネントは、幾何学的表現と特徴表現の両方を改善し、モデルが既知のクラスと未知のクラスを効果的に区別する能力を高める。
実験の結果, SASepは3次元OSRにおいて優れた性能を示し, 既存の最先端手法よりも優れていた。
関連論文リスト
- IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - A Novel Decomposed Feature-Oriented Framework for Open-Set Semantic Segmentation on LiDAR Data [6.427051055902494]
本稿では,LiDARデータのオープンセットセマンティックセマンティックセグメンテーションのための特徴指向フレームワークを提案する。
閉集合セマンティックセマンティックセグメンテーションを同時に実行し、未知のオブジェクトに特有の特徴を生成するために、デュアルデコーダネットワークを設計する。
近接したセマンティックセグメンテーションと異常検出の結果を統合することで、効率的な特徴駆動型LiDARオープンセットセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2025-03-14T05:40:05Z) - Hybrid Discriminative Attribute-Object Embedding Network for Compositional Zero-Shot Learning [83.10178754323955]
HDA-OE(Hybrid Discriminative Attribute-Object Embedding)ネットワークは,属性とオブジェクトの視覚表現との複雑な相互作用を解決するために提案される。
トレーニングデータの多様性を高めるため、HDA-OEは属性駆動型データ合成(ADDS)モジュールを導入した。
HDA-OEは、モデルの識別能力をさらに向上するため、サブクラス駆動の差別的埋め込み(SDDE)モジュールを導入している。
提案モデルを3つのベンチマークデータセットで評価し,その妥当性と信頼性を検証した。
論文 参考訳(メタデータ) (2024-11-28T09:50:25Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - GBE-MLZSL: A Group Bi-Enhancement Framework for Multi-Label Zero-Shot
Learning [24.075034737719776]
マルチラベルシナリオ(MLZSL)におけるゼロショット学習の課題について検討する。
本稿では、GBE-MLZSLと呼ばれるMLZSLのための新しい効果的なグループバイエンハンスメントフレームワークを提案し、それらの特性を十分に活用し、より正確で堅牢なビジュアル・セマンティック・プロジェクションを実現する。
大規模なMLZSLベンチマークデータセットであるNAS-WIDEとOpen-Images-v4の実験では、提案したGBE-MLZSLが、最先端の手法よりも大きなマージンを持つことを示した。
論文 参考訳(メタデータ) (2023-09-02T12:07:21Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Spatio-Temporal Representation Factorization for Video-based Person
Re-Identification [55.01276167336187]
本稿では、re-IDのための時空間表現分解モジュール(STRF)を提案する。
STRFはフレキシブルな新しい計算ユニットであり、re-IDのための既存のほとんどの3D畳み込みニューラルネットワークアーキテクチャと併用することができる。
実験により、STRFは様々なベースラインアーキテクチャの性能を向上し、新しい最先端の成果を示す。
論文 参考訳(メタデータ) (2021-07-25T19:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。