論文の概要: Video Class Agnostic Segmentation with Contrastive Learning for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2105.03533v2
- Date: Tue, 11 May 2021 02:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 11:17:35.451569
- Title: Video Class Agnostic Segmentation with Contrastive Learning for
Autonomous Driving
- Title(参考訳): 自動運転のためのコントラスト学習によるビデオクラス非依存セグメンテーション
- Authors: Mennatullah Siam, Alex Kendall, Martin Jagersand
- Abstract要約: 既知のクラスと未知のオブジェクトのセグメンテーションを学ぶために,新しい補助的なコントラスト損失を提案する。
画像レベルでアンカー,ポジティブ,負の例をサンプリングするコントラスト学習の以前の研究とは異なり,コントラスト学習法はピクセル単位の意味的および時間的指導を活用している。
我々は、異なる未知のオブジェクトを含む異なる自律運転シナリオのための大規模な合成データセットをリリースする。
- 参考スコア(独自算出の注目度): 13.312978643938202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation in autonomous driving predominantly focuses on learning
from large-scale data with a closed set of known classes without considering
unknown objects. Motivated by safety reasons, we address the video class
agnostic segmentation task, which considers unknown objects outside the closed
set of known classes in our training data. We propose a novel auxiliary
contrastive loss to learn the segmentation of known classes and unknown
objects. Unlike previous work in contrastive learning that samples the anchor,
positive and negative examples on an image level, our contrastive learning
method leverages pixel-wise semantic and temporal guidance. We conduct
experiments on Cityscapes-VPS by withholding four classes from training and
show an improvement gain for both known and unknown objects segmentation with
the auxiliary contrastive loss. We further release a large-scale synthetic
dataset for different autonomous driving scenarios that includes distinct and
rare unknown objects. We conduct experiments on the full synthetic dataset and
a reduced small-scale version, and show how contrastive learning is more
effective in small scale datasets. Our proposed models, dataset, and code will
be released at https://github.com/MSiam/video_class_agnostic_segmentation.
- Abstract(参考訳): 自律運転におけるセマンティックセグメンテーションは主に、未知のオブジェクトを考慮せずに、既知のクラスを閉じた大規模データから学ぶことに焦点を当てている。
安全上の理由から、トレーニングデータ内の既知のクラスを閉じた集合の外で未知のオブジェクトを考察するビデオクラス非依存セグメンテーションタスクに対処する。
既知のクラスと未知のオブジェクトのセグメンテーションを学ぶために,新しい補助的なコントラスト損失を提案する。
画像レベルでアンカー,ポジティブ,負の例をサンプリングするコントラスト学習の以前の研究とは異なり,コントラスト学習法はピクセル単位の意味的および時間的指導を活用している。
本研究では,Cityscapes-VPS実験において,4つのクラスを訓練から引き離し,補助的なコントラスト損失を伴う未知のオブジェクトセグメンテーションの改善効果を示す。
私たちはさらに、異なる未知のオブジェクトを含む異なる自動運転シナリオのための大規模な合成データセットをリリースします。
完全合成データセットと縮小された小型バージョンで実験を行い、小規模データセットにおいてコントラスト学習がいかに効果的かを示した。
提案するモデル、データセット、コードはhttps://github.com/msiam/video_class_agnostic_segmentationでリリースされる。
関連論文リスト
- CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Simplifying Open-Set Video Domain Adaptation with Contrastive Learning [16.72734794723157]
ラベル付きデータセットから非ラベル付きデータセットに予測モデルを適用するために、教師なしのビデオドメイン適応手法が提案されている。
我々は、OUVDA(Open-set Video Domain adapt)と呼ばれるより現実的なシナリオに対処し、ターゲットデータセットはソースと共有されていない"未知"セマンティックカテゴリを含む。
本稿では,ビデオデータ中の時間情報を自由に利用することで,特徴空間をよりよくクラスタ化できるビデオ指向の時間的コントラスト損失を提案する。
論文 参考訳(メタデータ) (2023-01-09T13:16:50Z) - Segmenting Known Objects and Unseen Unknowns without Prior Knowledge [86.46204148650328]
全体論的セグメンテーションは、目に見えない未知のカテゴリのオブジェクトを、それに関する事前の知識なしにインスタンスに識別し、分離することを目的としている。
U3HSでは、未知の領域を極めて不確実な領域として見つけ、対応するインスタンス認識の埋め込みを個々のオブジェクトにクラスタ化する。
MS、Cityscapes、Lost&Foundの公開データに関する実験は、U3HSの有効性を実証している。
論文 参考訳(メタデータ) (2022-09-12T16:59:36Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Video Class Agnostic Segmentation Benchmark for Autonomous Driving [13.312978643938202]
特定の安全クリティカルなロボティクスアプリケーションでは、トレーニング時に未知のものを含むすべてのオブジェクトを分割することが重要です。
自律運転における単眼ビデオシーケンスから未知の物体を考慮に入れたビデオクラスセグメンテーションのタスクを定式化する。
論文 参考訳(メタデータ) (2021-03-19T20:41:40Z) - Fool Me Once: Robust Selective Segmentation via Out-of-Distribution
Detection with Contrastive Learning [27.705683228657175]
ネットワークを訓練し,セグメンテーションと画素単位のアウトオブディストリビューション(ood)検出を同時に行う。
これは、OoDデータセットを新しい対比目標とデータ拡張スキームで活用することによって実現される。
OoDの予測値に基づいてシーンを選択的にセグメンテーションすることで、代替技術に関して0.2のIoUでセグメンテーション精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-03-01T09:38:40Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。