論文の概要: COLA: COarse-LAbel multi-source LiDAR semantic segmentation for
autonomous driving
- arxiv url: http://arxiv.org/abs/2311.03017v1
- Date: Mon, 6 Nov 2023 10:49:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 14:49:23.783800
- Title: COLA: COarse-LAbel multi-source LiDAR semantic segmentation for
autonomous driving
- Title(参考訳): COLA:Coarse-LabelマルチソースLiDARセマンティックセマンティックセグメンテーションによる自動運転
- Authors: Jules Sanchez, Jean-Emmanuel Deschaud, Fran\c{c}ois Goulette
- Abstract要約: LIDARセマンティックセグメンテーショントレーニングと推論の異なる方法は、いくつかのサブフィールドに分けられる。
本研究では,これらすべてのサブフィールドにおいて,マルチソース・トレーニングの新たなアプローチにより結果を改善することを目的としている。
マルチソーストレーニングで見られる共通の障害を克服するため、粗いラベルを導入し、新たに作成されたマルチソースデータセットCOLAを呼び出します。
- 参考スコア(独自算出の注目度): 5.240890834159944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR semantic segmentation for autonomous driving has been a growing field
of interest in the past few years. Datasets and methods have appeared and
expanded very quickly, but methods have not been updated to exploit this new
availability of data and continue to rely on the same classical datasets.
Different ways of performing LIDAR semantic segmentation training and
inference can be divided into several subfields, which include the following:
domain generalization, the ability to segment data coming from unseen domains ;
source-to-source segmentation, the ability to segment data coming from the
training domain; and pre-training, the ability to create re-usable geometric
primitives.
In this work, we aim to improve results in all of these subfields with the
novel approach of multi-source training. Multi-source training relies on the
availability of various datasets at training time and uses them together rather
than relying on only one dataset.
To overcome the common obstacles found for multi-source training, we
introduce the coarse labels and call the newly created multi-source dataset
COLA. We propose three applications of this new dataset that display systematic
improvement over single-source strategies: COLA-DG for domain generalization
(up to +10%), COLA-S2S for source-to-source segmentation (up to +5.3%), and
COLA-PT for pre-training (up to +12%).
- Abstract(参考訳): 自動運転のためのlidarセマンティクスセグメンテーションは、ここ数年で注目を集めている分野だ。
データセットとメソッドは非常に急速に拡張されているが、この新しいデータの可用性を活用し、同じ古典的なデータセットに依存し続けているメソッドは更新されていない。
lidarセマンティックセグメンテーションのトレーニングと推論の異なる方法は、ドメインの一般化、未熟なドメインからのデータをセグメンテーションする能力、ソースからソースへのセグメンテーション、トレーニングドメインからのデータをセグメンテーションする能力、再利用可能な幾何プリミティブを作成する事前トレーニング機能など、いくつかのサブフィールドに分けられる。
本研究では,これらすべてのサブフィールドにおいて,マルチソース・トレーニングの新たなアプローチにより結果を改善することを目的とする。
マルチソーストレーニングは、トレーニング時にさまざまなデータセットの可用性に依存し、単一のデータセットに頼るのではなく、それらを一緒に使用する。
マルチソーストレーニングで見られる共通の障害を克服するため、粗いラベルを導入し、新たに作成されたマルチソースデータセットCOLAを呼び出します。
ドメイン一般化のためのCOLA-DG(最大+10%)、ソース・ソースセグメンテーションのためのCOLA-S2S(最大+5.3%)、事前学習のためのCOLA-PT(最大+12%)である。
関連論文リスト
- Adapt-$\infty$: Scalable Lifelong Multimodal Instruction Tuning via Dynamic Data Selection [89.42023974249122]
Adapt-$infty$は、Lifelong Instruction Tuningの新しいマルチウェイおよびアダプティブデータ選択アプローチである。
勾配に基づくサンプルベクトルをグループ化して擬似スキルクラスタを構築する。
セレクタエキスパートのプールから各スキルクラスタの最高のパフォーマンスデータセレクタを選択する。
論文 参考訳(メタデータ) (2024-10-14T15:48:09Z) - Multi-Target Unsupervised Domain Adaptation for Semantic Segmentation without External Data [25.386114973556406]
マルチターゲット非教師付きドメイン適応(UDA)は、複数のターゲットドメイン間のドメインシフトに対応する統一モデルを学ぶことを目的としている。
既存のソリューションのほとんどは、ソースドメインからのラベル付きデータと、トレーニング中に複数のターゲットドメインからのラベルなしデータが必要です。
セマンティックセグメンテーションのための「外部データのないマルチターゲットUDA」という新しい戦略を導入する。
論文 参考訳(メタデータ) (2024-05-10T14:29:51Z) - All in One and One for All: A Simple yet Effective Method towards Cross-domain Graph Pretraining [18.955565096212183]
大規模言語モデル (LLM) はコンピュータビジョン (CV) と自然言語処理 (NLP) の分野に革命をもたらした。
LLMの最も注目すべき進歩の1つは、単一のモデルが複数のドメインにまたがる広範囲で多様なデータセットでトレーニングされていることである。
論文 参考訳(メタデータ) (2024-02-15T09:55:39Z) - Incremental Learning Meets Transfer Learning: Application to Multi-site
Prostate MRI Segmentation [16.50535949349874]
インクリメンタルトランスファー学習(ITL)と呼ばれる新しいマルチサイトセグメンテーションフレームワークを提案する。
ITLは、エンドツーエンドのシーケンシャルな方法で、マルチサイトデータセットからモデルを学習する。
ITLトレーニングスキームを活用することで、漸進的な学習における破滅的な問題を軽減できることを示す。
論文 参考訳(メタデータ) (2022-06-03T02:32:01Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Multi-Source domain adaptation via supervised contrastive learning and
confident consistency regularization [0.0]
Multi-Source Unsupervised Domain Adaptation (multi-source UDA)は、複数のラベル付きソースドメインからモデルを学習することを目的としている。
本稿では,この制限に対処するマルチソースUDAに対して,コントラスト型マルチソースドメイン適応(CMSDA)を提案する。
論文 参考訳(メタデータ) (2021-06-30T14:39:15Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z) - Dual-Teacher: Integrating Intra-domain and Inter-domain Teachers for
Annotation-efficient Cardiac Segmentation [65.81546955181781]
本稿では,新しい半教師付きドメイン適応手法,すなわちDual-Teacherを提案する。
学生モデルは、2つの教師モデルによってラベル付けされていない対象データとラベル付けされた情報源データの知識を学習する。
提案手法では, ラベルなしデータとモダリティ間データとを並列に利用でき, 性能が向上することを示した。
論文 参考訳(メタデータ) (2020-07-13T10:00:44Z) - Multi-source Domain Adaptation in the Deep Learning Era: A Systematic
Survey [53.656086832255944]
マルチソースドメイン適応(MDA)は、ラベル付きデータを複数のソースから収集できる強力な拡張である。
MDAは学術と産業の両方で注目を集めている。
論文 参考訳(メタデータ) (2020-02-26T08:07:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。