論文の概要: Label Efficient Visual Abstractions for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2005.10091v2
- Date: Thu, 16 Jul 2020 16:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:04:23.540523
- Title: Label Efficient Visual Abstractions for Autonomous Driving
- Title(参考訳): 自律運転のためのラベル効率のよい視覚抽象化
- Authors: Aseem Behl, Kashyap Chitta, Aditya Prakash, Eshed Ohn-Bar, Andreas
Geiger
- Abstract要約: 本研究では,セグメンテーションに基づく視覚的抽象化を,よりラベルの効率よく活用する方法について検討する。
驚いたことに、アノテーションのコストを大幅に削減することで最先端の駆動性能を実現することができる。
- 参考スコア(独自算出の注目度): 47.85464131726237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well known that semantic segmentation can be used as an effective
intermediate representation for learning driving policies. However, the task of
street scene semantic segmentation requires expensive annotations. Furthermore,
segmentation algorithms are often trained irrespective of the actual driving
task, using auxiliary image-space loss functions which are not guaranteed to
maximize driving metrics such as safety or distance traveled per intervention.
In this work, we seek to quantify the impact of reducing segmentation
annotation costs on learned behavior cloning agents. We analyze several
segmentation-based intermediate representations. We use these visual
abstractions to systematically study the trade-off between annotation
efficiency and driving performance, i.e., the types of classes labeled, the
number of image samples used to learn the visual abstraction model, and their
granularity (e.g., object masks vs. 2D bounding boxes). Our analysis uncovers
several practical insights into how segmentation-based visual abstractions can
be exploited in a more label efficient manner. Surprisingly, we find that
state-of-the-art driving performance can be achieved with orders of magnitude
reduction in annotation cost. Beyond label efficiency, we find several
additional training benefits when leveraging visual abstractions, such as a
significant reduction in the variance of the learned policy when compared to
state-of-the-art end-to-end driving models.
- Abstract(参考訳): セマンティックセグメンテーションは、駆動ポリシーを学習するための効果的な中間表現として利用できることはよく知られている。
しかし、ストリートシーンのセマンティクスセグメンテーションのタスクは高価なアノテーションを必要とする。
さらに、セグメンテーションアルゴリズムは実際の運転タスクによらず、安全や介入ごとの距離といった運転メトリクスを最大化することが保証されていない補助的な画像空間損失関数を用いて訓練されることが多い。
本研究では,セグメンテーションアノテーションのコスト削減が学習行動クローニングエージェントに与える影響を定量的に検討する。
複数のセグメンテーションに基づく中間表現を分析した。
これらの視覚的抽象化を用いて、アノテーション効率と駆動性能のトレードオフ、すなわち、ラベル付けされたクラスの種類、視覚的抽象モデルを学ぶために使用される画像サンプルの数、そしてその粒度(オブジェクトマスク対2D境界ボックス)を体系的に研究する。
今回の分析は、セグメンテーションベースの視覚的抽象化がよりラベルの効率的な方法でどのように活用できるかに関する、いくつかの実践的な洞察を明らかにする。
驚いたことに、アノテーションのコストを大幅に削減することで最先端の駆動性能を実現することができる。
ラベル効率以外にも、最先端の運転モデルと比較した場合の学習方針のばらつきなど、視覚的抽象化を活用する際のトレーニング上のメリットもいくつかあります。
関連論文リスト
- A Good Foundation is Worth Many Labels: Label-Efficient Panoptic Segmentation [22.440065488051047]
ロボット知覚に学習ベースのモデルを広く応用する上での課題は、注釈付きトレーニングデータの必要量を大幅に削減することである。
視覚基礎モデルにより舗装された基礎を生かし、セマンティックセグメンテーションとオブジェクト境界検出のために2つの軽量ネットワークヘッドを訓練する。
PASTELはアノテーションが少なくてもラベル効率の良いセグメンテーションの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-29T12:23:29Z) - Scribble-supervised Cell Segmentation Using Multiscale Contrastive
Regularization [9.849498498869258]
Scribble2Label (S2L) は、一握りのスクリブルと自己教師付き学習を使用することで、完全なアノテーションなしで正確なセグメンテーション結果を生成することを示した。
本研究では,S2Lに対して,新しいマルチスケールコントラスト正規化項を用いる。
主なアイデアは、ニューラルネットワークの中間層から特徴を抽出して、さまざまなスケールの構造を効果的に分離できるようにすることである。
論文 参考訳(メタデータ) (2023-06-25T06:00:33Z) - Semantic Segmentation by Semantic Proportions [6.171990546748665]
セマンティック・セグメンテーションのための新しい手法を提案し、個々のセマンティック・クラス比の粗い情報を必要とする。
これにより、データアノテーションプロセスが大幅に単純化され、アノテーションの時間、コスト、ストレージスペースが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-24T22:51:52Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Revisiting Deep Active Learning for Semantic Segmentation [37.3546941940388]
本研究では,本論文で提案する各種能動的学習目標の性能について,データ分布が決定的であることを示す。
半教師付き学習とアクティブラーニングの統合は,2つの目標が整列した際の性能向上を実証する。
論文 参考訳(メタデータ) (2023-02-08T14:23:37Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Leveraging Auxiliary Tasks with Affinity Learning for Weakly Supervised
Semantic Segmentation [88.49669148290306]
そこで我々はAuxSegNetと呼ばれる弱教師付きマルチタスク・フレームワークを提案し,サリエンシ検出とマルチラベル画像分類を補助タスクとして活用する。
同様の構造的セマンティクスに着想を得て,サリエンシとセグメンテーションの表現から,クロスタスクなグローバル画素レベルの親和性マップを学習することを提案する。
学習されたクロスタスク親和性は、両方のタスクに対して改善された擬似ラベルを提供するために、唾液度予測を洗練し、CAMマップを伝播するために使用することができる。
論文 参考訳(メタデータ) (2021-07-25T11:39:58Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Naive-Student: Leveraging Semi-Supervised Learning in Video Sequences
for Urban Scene Segmentation [57.68890534164427]
本研究では,未ラベル映像シーケンスと追加画像の半教師付き学習を利用して,都市景観セグメンテーションの性能を向上させることができるかどうかを問う。
我々は単にラベルのないデータに対して擬似ラベルを予測し、人間の注釈付きデータと擬似ラベル付きデータの両方でその後のモデルを訓練する。
我々のNaive-Studentモデルは、このような単純で効果的な反復的半教師付き学習で訓練され、3つのCityscapesベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-05-20T18:00:05Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。