論文の概要: Fool Me Once: Robust Selective Segmentation via Out-of-Distribution
Detection with Contrastive Learning
- arxiv url: http://arxiv.org/abs/2103.00869v1
- Date: Mon, 1 Mar 2021 09:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:05:34.215801
- Title: Fool Me Once: Robust Selective Segmentation via Out-of-Distribution
Detection with Contrastive Learning
- Title(参考訳): fool me once: コントラスト学習による分散検出によるロバスト選択的セグメンテーション
- Authors: David Williams, Matthew Gadd, Daniele De Martini and Paul Newman
- Abstract要約: ネットワークを訓練し,セグメンテーションと画素単位のアウトオブディストリビューション(ood)検出を同時に行う。
これは、OoDデータセットを新しい対比目標とデータ拡張スキームで活用することによって実現される。
OoDの予測値に基づいてシーンを選択的にセグメンテーションすることで、代替技術に関して0.2のIoUでセグメンテーション精度を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 27.705683228657175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we train a network to simultaneously perform segmentation and
pixel-wise Out-of-Distribution (OoD) detection, such that the segmentation of
unknown regions of scenes can be rejected. This is made possible by leveraging
an OoD dataset with a novel contrastive objective and data augmentation scheme.
By combining data including unknown classes in the training data, a more robust
feature representation can be learned with known classes represented distinctly
from those unknown. When presented with unknown classes or conditions, many
current approaches for segmentation frequently exhibit high confidence in their
inaccurate segmentations and cannot be trusted in many operational
environments. We validate our system on a real-world dataset of unusual driving
scenes, and show that by selectively segmenting scenes based on what is
predicted as OoD, we can increase the segmentation accuracy by an IoU of 0.2
with respect to alternative techniques.
- Abstract(参考訳): 本研究では,シーンの未知領域のセグメンテーションを拒否できるように,セグメンテーションと画素単位のアウト・オブ・ディストリビューション(ood)検出を同時に行うようにネットワークを訓練する。
これは、OoDデータセットを新しい対比目標とデータ拡張スキームで活用することによって実現される。
トレーニングデータに未知のクラスを含むデータを組み合わせることで、よりロバストな特徴表現を未知のクラスとは明確に表現された既知のクラスで学習することができる。
未知のクラスや条件が提示されると、セグメンテーションに対する多くの現在のアプローチはしばしば不正確なセグメンテーションに対して高い信頼性を示し、多くの運用環境で信頼できない。
そこで本研究では,異常な運転シーンを実世界のデータセットで検証し,oodとして予測される場面に基づいてシーンを選択的に分割することで,代替手法に対して0.2のiouでセグメンテーション精度を向上できることを示す。
関連論文リスト
- ElC-OIS: Ellipsoidal Clustering for Open-World Instance Segmentation on
LiDAR Data [13.978966783993146]
オープンワールドインスタンス(OIS)は、現在の観察に現れるすべてのオブジェクトインスタンスを正確に分割することを目的とした、難しいタスクである。
これは、堅牢な自律ナビゲーションのような安全クリティカルなアプリケーションにとって重要である。
我々は、LiDARポイントクラウドのための柔軟で効果的なOISフレームワークを提案し、既知のインスタンスと未知のインスタンスの両方を正確に分割できる。
論文 参考訳(メタデータ) (2023-03-08T03:22:11Z) - Simplifying Open-Set Video Domain Adaptation with Contrastive Learning [16.72734794723157]
ラベル付きデータセットから非ラベル付きデータセットに予測モデルを適用するために、教師なしのビデオドメイン適応手法が提案されている。
我々は、OUVDA(Open-set Video Domain adapt)と呼ばれるより現実的なシナリオに対処し、ターゲットデータセットはソースと共有されていない"未知"セマンティックカテゴリを含む。
本稿では,ビデオデータ中の時間情報を自由に利用することで,特徴空間をよりよくクラスタ化できるビデオ指向の時間的コントラスト損失を提案する。
論文 参考訳(メタデータ) (2023-01-09T13:16:50Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Segmenting Known Objects and Unseen Unknowns without Prior Knowledge [86.46204148650328]
全体論的セグメンテーションは、目に見えない未知のカテゴリのオブジェクトを、それに関する事前の知識なしにインスタンスに識別し、分離することを目的としている。
U3HSでは、未知の領域を極めて不確実な領域として見つけ、対応するインスタンス認識の埋め込みを個々のオブジェクトにクラスタ化する。
MS、Cityscapes、Lost&Foundの公開データに関する実験は、U3HSの有効性を実証している。
論文 参考訳(メタデータ) (2022-09-12T16:59:36Z) - Towards Unsupervised Open World Semantic Segmentation [6.445605125467575]
視覚的類似性に基づいて未知のオブジェクトをクラスタ化する手法を提案する。
予測セマンティックセグメンテーションの連結成分はセグメンテーション品質推定によって評価される。
DNNのクラス空間は,基礎的な真理にアクセスできなくても,しかも少ないデータでも,新しいクラスによって拡張可能であることを実証する。
論文 参考訳(メタデータ) (2022-01-04T10:29:34Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Video Class Agnostic Segmentation with Contrastive Learning for
Autonomous Driving [13.312978643938202]
既知のクラスと未知のオブジェクトのセグメンテーションを学ぶために,新しい補助的なコントラスト損失を提案する。
画像レベルでアンカー,ポジティブ,負の例をサンプリングするコントラスト学習の以前の研究とは異なり,コントラスト学習法はピクセル単位の意味的および時間的指導を活用している。
我々は、異なる未知のオブジェクトを含む異なる自律運転シナリオのための大規模な合成データセットをリリースする。
論文 参考訳(メタデータ) (2021-05-07T23:07:06Z) - Uncertainty-based method for improving poorly labeled segmentation
datasets [0.0]
ディープ畳み込みニューラルネットワーク(DCNN)は、完全にランダムなラベルを記憶することも知られている。
信頼できないピクセルレベルのアノテーションの集合を用いて,バイナリセグメンテーションDCNNを訓練するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-16T08:37:19Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。