論文の概要: DG-Labeler and DGL-MOTS Dataset: Boost the Autonomous Driving Perception
- arxiv url: http://arxiv.org/abs/2110.07790v1
- Date: Fri, 15 Oct 2021 01:04:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:39:03.289692
- Title: DG-Labeler and DGL-MOTS Dataset: Boost the Autonomous Driving Perception
- Title(参考訳): DG-LabelerとDGL-MOTSデータセット:自律走行知覚を高める
- Authors: Yiming Cui, Zhiwen Cao, Yixin Xie, Xingyu Jiang, Feng Tao, Yingjie
Chen, Lin Li, Dongfang Liu
- Abstract要約: 我々は,DG-LabelerとDGL-MOTSデータセットを導入し,MOTSタスクのトレーニングデータアノテーションを容易にする。
大規模なクロスデータセット評価の結果は、我々のデータセットでトレーニングされたいくつかの最先端手法に対して、大幅な性能向上を示している。
- 参考スコア(独自算出の注目度): 15.988493804970092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-object tracking and segmentation (MOTS) is a critical task for
autonomous driving applications. The existing MOTS studies face two critical
challenges: 1) the published datasets inadequately capture the real-world
complexity for network training to address various driving settings; 2) the
working pipeline annotation tool is under-studied in the literature to improve
the quality of MOTS learning examples. In this work, we introduce the
DG-Labeler and DGL-MOTS dataset to facilitate the training data annotation for
the MOTS task and accordingly improve network training accuracy and efficiency.
DG-Labeler uses the novel Depth-Granularity Module to depict the instance
spatial relations and produce fine-grained instance masks. Annotated by
DG-Labeler, our DGL-MOTS dataset exceeds the prior effort (i.e., KITTI MOTS and
BDD100K) in data diversity, annotation quality, and temporal representations.
Results on extensive cross-dataset evaluations indicate significant performance
improvements for several state-of-the-art methods trained on our DGL-MOTS
dataset. We believe our DGL-MOTS Dataset and DG-Labeler hold the valuable
potential to boost the visual perception of future transportation.
- Abstract(参考訳): マルチオブジェクトトラッキングとセグメンテーション(MOTS)は、自律運転アプリケーションにとって重要なタスクである。
既存のMOTS研究は2つの重要な課題に直面している。
1) 公開データセットは,様々な運転設定に対応するためのネットワークトレーニングの現実的な複雑さを適切に捉えていない。
2) 動作パイプラインアノテーションツールはMOTS学習例の品質向上のために,文献で未検討である。
本研究では,MOTSタスクのトレーニングデータアノテーションを容易にするため,DG-LabelerとDGL-MOTSデータセットを導入し,ネットワークトレーニングの精度と効率を向上させる。
dg-labelerは、新しい深度粒度モジュールを使用して、インスタンス空間関係を描写し、きめ細かいインスタンスマスクを生成する。
DG-Labelerによって注釈付けされた私たちのDGL-MOTSデータセットは、データ多様性、アノテーションの品質、時間表現における以前の取り組み(KITTI MOTSとBDD100K)を上回る。
広範なデータセット横断評価の結果,dgl-motsデータセット上でトレーニングされた最先端手法の性能改善が確認された。
DGL-MOTSデータセットとDG-Labelerは、将来の輸送に対する視覚的認識を高める貴重な可能性を持っていると考えています。
関連論文リスト
- K-Link: Knowledge-Link Graph from LLMs for Enhanced Representation
Learning in Multivariate Time-Series Data [39.83677994033754]
我々は,大規模言語モデル(LLM)を利用して,広範な一般知識を符号化するKリンクという新しいフレームワークを提案する。
本稿では,知識リンクグラフ内の意味知識のMSSグラフへの移動を容易にするグラフアライメントモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-06T12:08:14Z) - Language Semantic Graph Guided Data-Efficient Learning [10.039953846594805]
本稿では,自然言語記述として表されるラベルから構築した言語意味グラフ(LSG)を紹介する。
補助グラフニューラルネットワークは、ハイレベルな意味関係を抽出し、プライマリモデルのトレーニングをガイドするために使用される。
奥行き分析の結果,LSG法はトレーニングプロセスの高速化にも寄与することがわかった。
論文 参考訳(メタデータ) (2023-11-15T08:54:57Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Gram-SLD: Automatic Self-labeling and Detection for Instance Objects [6.512856940779818]
我々はGram-SLD(Gram Self-Labeling and Detection)と呼ばれる協調学習に基づく新しいフレームワークを提案する。
Gram-SLDは、手動でラベル付けされたキーデータで大量のデータを自動アノテートし、競争性能を達成する。
論文 参考訳(メタデータ) (2021-12-07T11:34:55Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Large-scale Unsupervised Semantic Segmentation [163.3568726730319]
本稿では, 大規模無教師付きセマンティックセマンティックセグメンテーション (LUSS) の新たな課題を提案する。
ImageNetデータセットに基づいて、120万のトレーニング画像と40万の高品質なセマンティックセグメンテーションアノテーションを用いた画像Net-Sデータセットを提案する。
論文 参考訳(メタデータ) (2021-06-06T15:02:11Z) - DAGA: Data Augmentation with a Generation Approach for Low-resource
Tagging Tasks [88.62288327934499]
線形化ラベル付き文に基づいて訓練された言語モデルを用いた新しい拡張手法を提案する。
本手法は, 教師付き設定と半教師付き設定の両方に適用可能である。
論文 参考訳(メタデータ) (2020-11-03T07:49:15Z) - Improving the Performance of Fine-Grain Image Classifiers via Generative
Data Augmentation [0.5161531917413706]
我々は、ロバスト生成アドリアルネットワーク(DAPPER GAN)の熟練した事前学習からデータ拡張を開発する。
DAPPER GANは、トレーニングイメージの新しいビューを自動的に生成するML分析支援ツールである。
本手法をStanford Carsデータセット上で実験的に評価し,車体形状とモデル分類精度の向上を実証した。
論文 参考訳(メタデータ) (2020-08-12T15:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。