論文の概要: Fool Me Once: Robust Selective Segmentation via Out-of-Distribution
Detection with Contrastive Learning
- arxiv url: http://arxiv.org/abs/2103.00869v1
- Date: Mon, 1 Mar 2021 09:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:05:34.215801
- Title: Fool Me Once: Robust Selective Segmentation via Out-of-Distribution
Detection with Contrastive Learning
- Title(参考訳): fool me once: コントラスト学習による分散検出によるロバスト選択的セグメンテーション
- Authors: David Williams, Matthew Gadd, Daniele De Martini and Paul Newman
- Abstract要約: ネットワークを訓練し,セグメンテーションと画素単位のアウトオブディストリビューション(ood)検出を同時に行う。
これは、OoDデータセットを新しい対比目標とデータ拡張スキームで活用することによって実現される。
OoDの予測値に基づいてシーンを選択的にセグメンテーションすることで、代替技術に関して0.2のIoUでセグメンテーション精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 27.705683228657175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we train a network to simultaneously perform segmentation and
pixel-wise Out-of-Distribution (OoD) detection, such that the segmentation of
unknown regions of scenes can be rejected. This is made possible by leveraging
an OoD dataset with a novel contrastive objective and data augmentation scheme.
By combining data including unknown classes in the training data, a more robust
feature representation can be learned with known classes represented distinctly
from those unknown. When presented with unknown classes or conditions, many
current approaches for segmentation frequently exhibit high confidence in their
inaccurate segmentations and cannot be trusted in many operational
environments. We validate our system on a real-world dataset of unusual driving
scenes, and show that by selectively segmenting scenes based on what is
predicted as OoD, we can increase the segmentation accuracy by an IoU of 0.2
with respect to alternative techniques.
- Abstract(参考訳): 本研究では,シーンの未知領域のセグメンテーションを拒否できるように,セグメンテーションと画素単位のアウト・オブ・ディストリビューション(ood)検出を同時に行うようにネットワークを訓練する。
これは、OoDデータセットを新しい対比目標とデータ拡張スキームで活用することによって実現される。
トレーニングデータに未知のクラスを含むデータを組み合わせることで、よりロバストな特徴表現を未知のクラスとは明確に表現された既知のクラスで学習することができる。
未知のクラスや条件が提示されると、セグメンテーションに対する多くの現在のアプローチはしばしば不正確なセグメンテーションに対して高い信頼性を示し、多くの運用環境で信頼できない。
そこで本研究では,異常な運転シーンを実世界のデータセットで検証し,oodとして予測される場面に基づいてシーンを選択的に分割することで,代替手法に対して0.2のiouでセグメンテーション精度を向上できることを示す。
関連論文リスト
- VL4AD: Vision-Language Models Improve Pixel-wise Anomaly Detection [5.66050466694651]
本稿では,既存の異常検知器にVLエンコーダを組み込み,セマンティック・ワイドなVL事前学習を有効活用し,外乱認識を改善することを提案する。
また,テキスト・プロンプトによるデータ・トレーニング不要の外部監視を可能にする新たなスコアリング機能を提案する。
得られたVL4ADモデルは、広く使用されているベンチマークデータセット上での競合性能を達成する。
論文 参考訳(メタデータ) (2024-09-25T20:12:10Z) - Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - ElC-OIS: Ellipsoidal Clustering for Open-World Instance Segmentation on
LiDAR Data [13.978966783993146]
オープンワールドインスタンス(OIS)は、現在の観察に現れるすべてのオブジェクトインスタンスを正確に分割することを目的とした、難しいタスクである。
これは、堅牢な自律ナビゲーションのような安全クリティカルなアプリケーションにとって重要である。
我々は、LiDARポイントクラウドのための柔軟で効果的なOISフレームワークを提案し、既知のインスタンスと未知のインスタンスの両方を正確に分割できる。
論文 参考訳(メタデータ) (2023-03-08T03:22:11Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Segmenting Known Objects and Unseen Unknowns without Prior Knowledge [86.46204148650328]
全体論的セグメンテーションは、目に見えない未知のカテゴリのオブジェクトを、それに関する事前の知識なしにインスタンスに識別し、分離することを目的としている。
U3HSでは、未知の領域を極めて不確実な領域として見つけ、対応するインスタンス認識の埋め込みを個々のオブジェクトにクラスタ化する。
MS、Cityscapes、Lost&Foundの公開データに関する実験は、U3HSの有効性を実証している。
論文 参考訳(メタデータ) (2022-09-12T16:59:36Z) - Towards Unsupervised Open World Semantic Segmentation [6.445605125467575]
視覚的類似性に基づいて未知のオブジェクトをクラスタ化する手法を提案する。
予測セマンティックセグメンテーションの連結成分はセグメンテーション品質推定によって評価される。
DNNのクラス空間は,基礎的な真理にアクセスできなくても,しかも少ないデータでも,新しいクラスによって拡張可能であることを実証する。
論文 参考訳(メタデータ) (2022-01-04T10:29:34Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Video Class Agnostic Segmentation with Contrastive Learning for
Autonomous Driving [13.312978643938202]
既知のクラスと未知のオブジェクトのセグメンテーションを学ぶために,新しい補助的なコントラスト損失を提案する。
画像レベルでアンカー,ポジティブ,負の例をサンプリングするコントラスト学習の以前の研究とは異なり,コントラスト学習法はピクセル単位の意味的および時間的指導を活用している。
我々は、異なる未知のオブジェクトを含む異なる自律運転シナリオのための大規模な合成データセットをリリースする。
論文 参考訳(メタデータ) (2021-05-07T23:07:06Z) - Uncertainty-based method for improving poorly labeled segmentation
datasets [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、完全にランダムなラベルを記憶することも知られている。
信頼できないピクセルレベルのアノテーションの集合を用いて,バイナリセグメンテーションDCNNを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-16T08:37:19Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。