論文の概要: Prior2Former -- Evidential Modeling of Mask Transformers for Assumption-Free Open-World Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2504.04841v1
- Date: Mon, 07 Apr 2025 08:53:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:11:07.922364
- Title: Prior2Former -- Evidential Modeling of Mask Transformers for Assumption-Free Open-World Panoptic Segmentation
- Title(参考訳): Prior2Former -- 推定自由なオープンワールドパノプティブセグメンテーションのためのマスク変換器のエビデンシャルモデリング
- Authors: Sebastian Schmidt, Julius Körner, Dominik Fuchsgruber, Stefano Gasperini, Federico Tombari, Stephan Günnemann,
- Abstract要約: 顕在学習に根ざしたセグメンテーション・ビジョン・トランスフォーマの最初のアプローチとして、Prefer2Former (P2F)を提案する。
P2Fは、ピクセル単位のバイナリマスク割り当てにおいて、モデル不確実性を計算するためのベータを組み込むことで、マスクビジョントランスフォーマーアーキテクチャを拡張している。
OODデータを使用しないメソッドの中では、OoDIS異常インスタンスベンチマークで最高ランクに達している。
- 参考スコア(独自算出の注目度): 74.55677741919035
- License:
- Abstract: In panoptic segmentation, individual instances must be separated within semantic classes. As state-of-the-art methods rely on a pre-defined set of classes, they struggle with novel categories and out-of-distribution (OOD) data. This is particularly problematic in safety-critical applications, such as autonomous driving, where reliability in unseen scenarios is essential. We address the gap between outstanding benchmark performance and reliability by proposing Prior2Former (P2F), the first approach for segmentation vision transformers rooted in evidential learning. P2F extends the mask vision transformer architecture by incorporating a Beta prior for computing model uncertainty in pixel-wise binary mask assignments. This design enables high-quality uncertainty estimation that effectively detects novel and OOD objects enabling state-of-the-art anomaly instance segmentation and open-world panoptic segmentation. Unlike most segmentation models addressing unknown classes, P2F operates without access to OOD data samples or contrastive training on void (i.e., unlabeled) classes, making it highly applicable in real-world scenarios where such prior information is unavailable. Additionally, P2F can be flexibly applied to anomaly instance and panoptic segmentation. Through comprehensive experiments on the Cityscapes, COCO, SegmentMeIfYouCan, and OoDIS datasets, we demonstrate the state-of-the-art performance of P2F. It achieves the highest ranking in the OoDIS anomaly instance benchmark among methods not using OOD data in any way.
- Abstract(参考訳): 汎視的セグメンテーションでは、個々のインスタンスはセマンティッククラス内で分離されなければならない。
最先端の手法は事前に定義されたクラスのセットに依存しているため、新しいカテゴリとアウト・オブ・ディストリビューション(OOD)データに悩まされる。
これは、見えないシナリオにおける信頼性が不可欠である自動運転など、安全クリティカルなアプリケーションにおいて特に問題となる。
そこで我々はPreside2Former(P2F)を提案することで,優れたベンチマーク性能と信頼性のギャップを解消する。
P2Fは、ピクセル単位のバイナリマスク割り当てにおいて、モデル不確実性を計算するためのベータを組み込むことで、マスクビジョントランスフォーマーアーキテクチャを拡張している。
この設計により、新しいOODオブジェクトやOODオブジェクトを効果的に検出し、最先端の異常なインスタンスセグメンテーションとオープンワールドのパン光学セグメンテーションを可能にする高品質な不確実性推定が可能となる。
未知のクラスに対処するほとんどのセグメンテーションモデルとは異なり、P2FはOODデータサンプルへのアクセスや空白(ラベル付けされていない)クラスでの対照的なトレーニングなしで動作し、そのような事前情報が利用できない現実のシナリオで高い適用性を持つ。
さらに、P2Fは異常なインスタンスや汎視的セグメンテーションに柔軟に適用することができる。
Cityscapes、COCO、SegmentMeIfYouCan、OoDISデータセットに関する包括的な実験を通じて、P2Fの最先端性能を実証する。
OODデータを使用しないメソッドの中では、OoDIS異常インスタンスベンチマークで最高ランクに達している。
関連論文リスト
- Multi-Scale Foreground-Background Confidence for Out-of-Distribution Segmentation [0.36832029288386137]
本研究では,前景-背景セグメントモデルの信頼性情報を利用するマルチスケールOODセグメンテーション手法を提案する。
モデル予測の画素毎の信頼スコアは,前景オブジェクトの画素に対して1に近い。
異なるサイズのパッチに対してこれらの信頼値を集約することにより、さまざまなサイズのオブジェクトを単一のイメージで識別することができる。
論文 参考訳(メタデータ) (2024-12-22T12:09:27Z) - PCF-Lift: Panoptic Lifting by Probabilistic Contrastive Fusion [80.79938369319152]
我々は,PCF(Probabilis-tic Contrastive Fusion)に基づくPCF-Liftという新しいパイプラインを設計する。
私たちのPCFリフトは、ScanNetデータセットやMessy Roomデータセット(シーンレベルのPQが4.4%改善)など、広く使用されているベンチマークにおいて、最先端の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T16:06:59Z) - Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
この純粋にデータ駆動のパラダイムは、特にトレーニング中に遭遇した領域から入力画像の領域がシフトした場合、しばしば不条理なセグメンテーションにつながる。
我々の方法であるPhyFea(PhyFea)は、まず、オフラインデータ駆動方式で手元に設定したセグメンテーショントレーニングから空間クラス関係を規定する明示的な制約を抽出し、これらの制約の違反を罰する形態的かつ差別的な損失を強制する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Segment Every Out-of-Distribution Object [24.495734304922244]
本稿では,意味的セグメンテーションにおけるOoD検出の簡易かつ効果的なフレームワークであるS2Mと呼ばれる,異常な textbfScore textbfTo セグメンテーション textbfMask を変換する手法を提案する。
異常スコアをプロンプト可能なセグメンテーションモデルへのプロンプトに変換することで、S2Mはしきい値の選択を不要にする。
論文 参考訳(メタデータ) (2023-11-27T18:20:03Z) - Pixel-wise Gradient Uncertainty for Convolutional Neural Networks
applied to Out-of-Distribution Segmentation [0.43512163406552007]
本稿では,推定時に効率よく計算できる画素単位の損失勾配から不確実点を求める手法を提案する。
本実験は,提案手法が誤った画素分類を識別し,無視可能な計算オーバーヘッドで予測品質を推定する能力を示す。
論文 参考訳(メタデータ) (2023-03-13T08:37:59Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Anomaly-Aware Semantic Segmentation by Leveraging Synthetic-Unknown Data [19.80173687261055]
自律運転のような安全クリティカルな応用には異常認識が不可欠である。
本稿では,異常認識型セマンティックセマンティック・セマンティック・タスクに対処する新しい合成未知データ生成手法を提案する。
2つの異常セグメンテーションデータセットの最先端性能に到達する。
論文 参考訳(メタデータ) (2021-11-29T06:24:50Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。