論文の概要: Objectomaly: Objectness-Aware Refinement for OoD Segmentation with Structural Consistency and Boundary Precision
- arxiv url: http://arxiv.org/abs/2507.07460v2
- Date: Fri, 11 Jul 2025 04:12:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 11:58:22.362232
- Title: Objectomaly: Objectness-Aware Refinement for OoD Segmentation with Structural Consistency and Boundary Precision
- Title(参考訳): Objectomaly: 構造整合性と境界精度を考慮したOoDセグメンテーションのためのオブジェクトネス対応リファインメント
- Authors: Jeonghoon Song, Sunghun Kim, Jaegyun Im, Byeongjoon Noh,
- Abstract要約: アウト・オブ・ディストリビューション(OoD)のセグメンテーションは、自動運転のような安全に敏感なアプリケーションには不可欠である。
既存のマスクベースの手法は、しばしば境界不整合、オブジェクト内の矛盾した異常スコア、背景雑音からの偽陽性に悩まされる。
オブジェクトレベルの先入観を組み込んだオブジェクト指向対応の洗練フレームワークである textbftextitObjectomaly を提案する。
- 参考スコア(独自算出の注目度): 1.2036459029967645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Out-of-Distribution (OoD) segmentation is critical for safety-sensitive applications like autonomous driving. However, existing mask-based methods often suffer from boundary imprecision, inconsistent anomaly scores within objects, and false positives from background noise. We propose \textbf{\textit{Objectomaly}}, an objectness-aware refinement framework that incorporates object-level priors. Objectomaly consists of three stages: (1) Coarse Anomaly Scoring (CAS) using an existing OoD backbone, (2) Objectness-Aware Score Calibration (OASC) leveraging SAM-generated instance masks for object-level score normalization, and (3) Meticulous Boundary Precision (MBP) applying Laplacian filtering and Gaussian smoothing for contour refinement. Objectomaly achieves state-of-the-art performance on key OoD segmentation benchmarks, including SMIYC AnomalyTrack/ObstacleTrack and RoadAnomaly, improving both pixel-level (AuPRC up to 96.99, FPR$_{95}$ down to 0.07) and component-level (F1$-$score up to 83.44) metrics. Ablation studies and qualitative results on real-world driving videos further validate the robustness and generalizability of our method. Code will be released upon publication.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OoD)のセグメンテーションは、自動運転のような安全に敏感なアプリケーションには不可欠である。
しかし、既存のマスクベースの手法は、しばしば境界不整合、オブジェクト内の矛盾した異常スコア、背景雑音による偽陽性に悩まされる。
本稿では,オブジェクトレベルの事前処理を組み込んだオブジェクト指向対応の洗練フレームワークである‘textbf{\textit{Objectomaly}}を提案する。
Objectomalyは,(1)既存のOoDバックボーンを用いた粗い異常検査(CAS),(2)SAM生成インスタンスマスクを利用したOASC(Objectness-Aware Score Calibration),(3)Meticulous boundary Precision(MBP)の3段階からなる。
Objectomalyは、SMIYC AnomalyTrack/ObstacleTrackとRoadAnomalyを含む主要なOoDセグメンテーションベンチマークの最先端のパフォーマンスを達成し、ピクセルレベル(AuPRC 96.99、FPR$_{95}$0.07)とコンポーネントレベル(F1$-$score 83.44)の両方を改善した。
実世界のドライビングビデオにおけるアブレーション研究と定性的な結果により,本手法の堅牢性と一般化性がさらに検証された。
コードは出版時に公開される。
関連論文リスト
- Rethinking End-to-End 2D to 3D Scene Segmentation in Gaussian Splatting [86.15347226865826]
We design an new end-to-end object-aware lifting approach, called Unified-Lift。
コントラスト損失を用いて学習したガウスレベルの機能を各ガウス点に拡張し、インスタンス情報をエンコードする。
LERF-Masked、Replica、Messy Roomsの3つのベンチマークで実験を行った。
論文 参考訳(メタデータ) (2025-03-18T08:42:23Z) - Mitigating Hallucinations in YOLO-based Object Detection Models: A Revisit to Out-of-Distribution Detection [8.206992765692535]
本稿では,パフォーマンスボトルネックの原因を考察し,パフォーマンスを根本的に改善する手法を提案する。
検出対象にセマンティックに類似したOoDデータセットを慎重に合成する手法を開発することにより,全体の幻覚誤差を88%削減する。
論文 参考訳(メタデータ) (2025-03-10T13:42:41Z) - PointOBB-v3: Expanding Performance Boundaries of Single Point-Supervised Oriented Object Detection [65.84604846389624]
我々は,より強力な単一点制御OODフレームワークであるPointOBB-v3を提案する。
追加のプリミティブなしで擬似回転ボックスを生成し、エンドツーエンドのパラダイムをサポートする。
本手法は従来の最先端手法と比較して3.56%の精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-23T18:18:15Z) - Bridge the Points: Graph-based Few-shot Segment Anything Semantically [79.1519244940518]
プレトレーニング技術の最近の進歩により、視覚基礎モデルの能力が向上した。
最近の研究はSAMをFew-shot Semantic segmentation (FSS)に拡張している。
本稿では,グラフ解析に基づく簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T15:02:28Z) - Segment Every Out-of-Distribution Object [24.495734304922244]
本稿では,意味的セグメンテーションにおけるOoD検出の簡易かつ効果的なフレームワークであるS2Mと呼ばれる,異常な textbfScore textbfTo セグメンテーション textbfMask を変換する手法を提案する。
異常スコアをプロンプト可能なセグメンテーションモデルへのプロンプトに変換することで、S2Mはしきい値の選択を不要にする。
論文 参考訳(メタデータ) (2023-11-27T18:20:03Z) - Revisiting Domain-Adaptive 3D Object Detection by Reliable, Diverse and
Class-balanced Pseudo-Labeling [38.07637524378327]
ドメイン適応型3Dオブジェクト検出において,疑似ラベリング技術を用いた教師なしドメイン適応(DA)が重要なアプローチとして浮上している。
既存のDAメソッドは、マルチクラスのトレーニング環境に適用した場合、パフォーマンスが大幅に低下する。
本稿では,すべてのクラスを一度に検出する学習に適した新しいReDBフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-16T04:34:11Z) - ARS-DETR: Aspect Ratio-Sensitive Detection Transformer for Aerial Oriented Object Detection [55.291579862817656]
既存のオブジェクト指向オブジェクト検出手法では、モデルの性能を測定するために計量AP$_50$が一般的である。
我々は、AP$_50$は本来、角度偏差に大きな耐性があるため、オブジェクト指向物体検出には適さないと主張している。
本稿では,ARS-DETR(Aspect Ratio Sensitive Oriented Object Detector with Transformer)を提案する。
論文 参考訳(メタデータ) (2023-03-09T02:20:56Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - Topologically Persistent Features-based Object Recognition in Cluttered
Indoor Environments [1.2691047660244335]
見えない屋内環境における隠蔽物体の認識は、移動ロボットにとって困難な問題である。
本研究では,物体点雲の3次元形状を捉えるスライシングに基づく新しいトポロジカルディスクリプタを提案する。
これは、隠蔽対象のディスクリプタとそれに対応する非隠蔽対象との類似性を生じさせ、オブジェクトのユニティに基づく認識を可能にする。
論文 参考訳(メタデータ) (2022-05-16T07:01:16Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Shallow Feature Matters for Weakly Supervised Object Localization [35.478997006168484]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのラベルのみを利用してオブジェクトをローカライズすることを目的としている。
以前のCAMベースの手法では、WSOLが重要であったにもかかわらず、浅い特徴を十分に活用できなかった。
本稿では,Shallow機能を考慮したPseudo supervised Object Localization (SPOL) モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T13:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。