論文の概要: FlowCLAS: Enhancing Normalizing Flow Via Contrastive Learning For Anomaly Segmentation
- arxiv url: http://arxiv.org/abs/2411.19888v1
- Date: Fri, 29 Nov 2024 17:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:21:40.968584
- Title: FlowCLAS: Enhancing Normalizing Flow Via Contrastive Learning For Anomaly Segmentation
- Title(参考訳): FlowCLAS: 異常セグメンテーションのためのコントラスト学習による正規化の強化
- Authors: Chang Won Lee, Selina Leveugle, Svetlana Stolpner, Chris Langley, Paul Grouchy, Jonathan Kelly, Steven L. Waslander,
- Abstract要約: 異常セグメンテーション(英: Anomaly segmentation)は、予期せぬ事象を認識する必要がある安全クリティカルなアプリケーションにとって貴重なコンピュータビジョンタスクである。
現在の最先端の異常セグメンテーションアプローチは、トレーニング中に様々な不適切なクラスラベルに依存しており、ラベルなしおよび事前訓練された視覚エンコーダを活用する能力を制限する。
視覚基盤モデルを用いてリッチな特徴を抽出し,密度分布の学習に正規化フローネットワークを利用する,新たな自己教師型フレームワークであるFlowCLASを紹介する。
- 参考スコア(独自算出の注目度): 11.689335986823098
- License:
- Abstract: Anomaly segmentation is a valuable computer vision task for safety-critical applications that need to be aware of unexpected events. Current state-of-the-art (SOTA) scene-level anomaly segmentation approaches rely on diverse inlier class labels during training, limiting their ability to leverage vast unlabeled datasets and pre-trained vision encoders. These methods may underperform in domains with reduced color diversity and limited object classes. Conversely, existing unsupervised methods struggle with anomaly segmentation with the diverse scenes of less restricted domains. To address these challenges, we introduce FlowCLAS, a novel self-supervised framework that utilizes vision foundation models to extract rich features and employs a normalizing flow network to learn their density distribution. We enhance the model's discriminative power by incorporating Outlier Exposure and contrastive learning in the latent space. FlowCLAS significantly outperforms all existing methods on the ALLO anomaly segmentation benchmark for space robotics and demonstrates competitive results on multiple road anomaly segmentation benchmarks for autonomous driving, including Fishyscapes Lost&Found and Road Anomaly. These results highlight FlowCLAS's effectiveness in addressing the unique challenges of space anomaly segmentation while retaining SOTA performance in the autonomous driving domain without reliance on inlier segmentation labels.
- Abstract(参考訳): 異常セグメンテーション(英: Anomaly segmentation)は、予期せぬ事象を認識する必要がある安全クリティカルなアプリケーションにとって貴重なコンピュータビジョンタスクである。
現状の最先端(SOTA)シーンレベルの異常セグメンテーションアプローチは、トレーニング中に様々な不適切なクラスラベルに依存しており、膨大なラベルのないデータセットと事前訓練されたビジョンエンコーダを活用する能力を制限する。
これらの手法は、色多様性を減らし、オブジェクトクラスが制限されたドメインで性能が低下する可能性がある。
逆に、既存の教師なし手法は、制限の少ないドメインの多様なシーンと異常セグメンテーションに苦労する。
これらの課題に対処するために、視覚基盤モデルを用いてリッチな特徴を抽出し、密度分布の学習に正規化フローネットワークを利用する、新しい自己教師型フレームワークFlowCLASを紹介する。
潜在空間における外周露光とコントラスト学習を組み込むことにより,モデルの識別力を高める。
FlowCLASは、宇宙ロボティクスのALLO異常セグメンテーションベンチマークにおける既存のすべての手法を著しく上回り、Fishyscapes Lost&FoundやRoad Anomalyなど、自律運転のための複数の道路異常セグメンテーションベンチマークにおける競合結果を示している。
これらの結果から,自動走行領域におけるSOTA性能を維持しながら,不整形セグメンテーションに頼らずに,空間異常セグメンテーションの独特な課題に対処するFlowCLASの有効性を強調した。
関連論文リスト
- VL4AD: Vision-Language Models Improve Pixel-wise Anomaly Detection [5.66050466694651]
本稿では,既存の異常検知器にVLエンコーダを組み込み,セマンティック・ワイドなVL事前学習を有効活用し,外乱認識を改善することを提案する。
また,テキスト・プロンプトによるデータ・トレーニング不要の外部監視を可能にする新たなスコアリング機能を提案する。
得られたVL4ADモデルは、広く使用されているベンチマークデータセット上での競合性能を達成する。
論文 参考訳(メタデータ) (2024-09-25T20:12:10Z) - Joint semi-supervised and contrastive learning enables domain generalization and multi-domain segmentation [1.5393913074555419]
SegCLRは、さまざまなドメインにまたがるイメージのセグメンテーション用に設計された汎用的なフレームワークです。
SegCLRは、ラベル付きデータとラベルなしデータの両方から効果的に学習するために、教師付き学習とコントラスト付き学習を同時に使用する。
3つの多様な臨床データセットを包括的に評価することで、SegCLRの優れた性能を実証する。
論文 参考訳(メタデータ) (2024-05-08T18:10:59Z) - Improving Anomaly Segmentation with Multi-Granularity Cross-Domain
Alignment [17.086123737443714]
異常セグメンテーションは、画像中の非定型物体を識別する上で重要な役割を担っている。
既存の手法は合成データに顕著な結果を示すが、合成データドメインと実世界のデータドメインの相違を考慮できないことが多い。
シーンと個々のサンプルレベルの両方で、ドメイン間の機能を調和させるのに適した、マルチグラニュラリティ・クロスドメインアライメントフレームワークを導入します。
論文 参考訳(メタデータ) (2023-08-16T22:54:49Z) - A Novel Cross-Perturbation for Single Domain Generalization [54.612933105967606]
単一ドメインの一般化は、モデルが単一のソースドメインでトレーニングされたときに未知のドメインに一般化する能力を高めることを目的としている。
トレーニングデータの限られた多様性は、ドメイン不変の特徴の学習を妨げ、結果として一般化性能を損なう。
トレーニングデータの多様性を高めるために,CPerbを提案する。
論文 参考訳(メタデータ) (2023-08-02T03:16:12Z) - Evaluating the Label Efficiency of Contrastive Self-Supervised Learning
for Multi-Resolution Satellite Imagery [0.0]
遠隔センシング領域における自己教師付き学習は、容易に利用可能なラベル付きデータを活用するために応用されている。
本稿では,ラベル効率のレンズを用いた自己教師型視覚表現学習について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:54:13Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Consistency and Diversity induced Human Motion Segmentation [231.36289425663702]
本稿では,CDMS(Consistency and Diversity induced Human Motion)アルゴリズムを提案する。
我々のモデルは、ソースとターゲットデータを異なる多層特徴空間に分解する。
ソースとターゲットデータ間の領域ギャップを低減するために、マルチミューチュアル学習戦略を実行する。
論文 参考訳(メタデータ) (2022-02-10T06:23:56Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Unsupervised Domain Adaptation in Semantic Segmentation via Orthogonal
and Clustered Embeddings [25.137859989323537]
本稿では,機能クラスタリング手法に基づく効果的なUnsupervised Domain Adaptation(UDA)戦略を提案する。
識別的クラスタリング性能を高めるために,2つの新しい学習目標を導入する。
論文 参考訳(メタデータ) (2020-11-25T10:06:22Z) - Unsupervised Domain Adaptation in Person re-ID via k-Reciprocal
Clustering and Large-Scale Heterogeneous Environment Synthesis [76.46004354572956]
個人再識別のための教師なし領域適応手法を提案する。
実験結果から,ktCUDA法とSHRED法は,再同定性能において,+5.7 mAPの平均的改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-01-14T17:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。