論文の概要: CAR -- Cityscapes Attributes Recognition A Multi-category Attributes
Dataset for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2111.08243v1
- Date: Tue, 16 Nov 2021 06:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-17 15:24:20.364213
- Title: CAR -- Cityscapes Attributes Recognition A Multi-category Attributes
Dataset for Autonomous Vehicles
- Title(参考訳): CAR -- 都市景観が認識に寄与する - 自律走行車のためのデータセット
- Authors: Kareem Metwaly and Aerin Kim and Elliot Branson and Vishal Monga
- Abstract要約: 属性認識のための新しいデータセット -- Cityscapes Attributes Recognition (CAR) を提案する。
新しいデータセットは、よく知られたデータセットであるCityscapesを拡張し、各イメージにオブジェクトの属性のアノテーション層を追加する。
データセットは、それぞれのカテゴリが独自の属性セットを持つ、構造化され、調整された分類を持っている。
- 参考スコア(独自算出の注目度): 30.024877502540665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving vehicles are the future of transportation. With current
advancements in this field, the world is getting closer to safe roads with
almost zero probability of having accidents and eliminating human errors.
However, there is still plenty of research and development necessary to reach a
level of robustness. One important aspect is to understand a scene fully
including all details. As some characteristics (attributes) of objects in a
scene (drivers' behavior for instance) could be imperative for correct decision
making. However, current algorithms suffer from low-quality datasets with such
rich attributes. Therefore, in this paper, we present a new dataset for
attributes recognition -- Cityscapes Attributes Recognition (CAR). The new
dataset extends the well-known dataset Cityscapes by adding an additional yet
important annotation layer of attributes of objects in each image. Currently,
we have annotated more than 32k instances of various categories (Vehicles,
Pedestrians, etc.). The dataset has a structured and tailored taxonomy where
each category has its own set of possible attributes. The tailored taxonomy
focuses on attributes that is of most beneficent for developing better
self-driving algorithms that depend on accurate computer vision and scene
comprehension. We have also created an API for the dataset to ease the usage of
CAR. The API can be accessed through https://github.com/kareem-metwaly/CAR-API.
- Abstract(参考訳): 自動運転車は未来の交通手段だ。
この分野での現在の進歩により、世界はほぼゼロの確率で安全な道路に近づき、事故や人的ミスを排除している。
しかし、堅牢性レベルに達するために必要な研究と開発はまだたくさんある。
重要な側面の1つは、すべての詳細を含むシーンを完全に理解することである。
シーン内のオブジェクト(例えばドライバの振る舞い)のいくつかの特性(属性)は、正しい意思決定に不可欠である。
しかし、現在のアルゴリズムは、このような豊富な属性を持つ低品質データセットに苦しむ。
そこで本稿では,属性認識のための新しいデータセットであるCityscapes Attributes Recognition (CAR)を提案する。
新しいデータセットは、よく知られたデータセットであるCityscapesを拡張し、各イメージにオブジェクトの属性のアノテーション層を追加する。
現在、さまざまなカテゴリの32k以上のインスタンス(Vehicles、Pedestriansなど)に注釈を付けています。
データセットには、各カテゴリが独自の可能な属性セットを持つ、構造化され、カスタマイズされた分類法がある。
tailored taxonomyは、正確なコンピュータビジョンとシーン理解に依存する、より良い自動運転アルゴリズムを開発する上で最も好都合な属性に焦点を当てている。
また、CARの使用を簡単にするためのデータセット用のAPIも作成しました。
apiはhttps://github.com/kareem-metwaly/car-apiでアクセスできる。
関連論文リスト
- Automating Style Analysis and Visualization With Explainable AI -- Case
Studies on Brand Recognition [0.4297070083645048]
本稿では,ブランド関連機能の発見を完全に自動化するAI駆動手法を提案する。
提案手法では,ベクトルグラフィックスの分類と解析を行う2層ブランド識別グラフニューラルネットワーク(GNN)BIGNetを導入する。
最初のケーススタディでは、BIGNetは電話ブランドを分類するだけでなく、複数のスケールでブランド関連の機能をキャプチャする。
論文 参考訳(メタデータ) (2023-06-05T16:38:11Z) - POAR: Towards Open Vocabulary Pedestrian Attribute Recognition [39.399286703315745]
歩行者属性認識(PAR)は、監視システムにおける歩行者の属性を予測することを目的としている。
現実世界のすべての歩行者属性を消耗することは不可能である。
我々は,新しい歩行者用オープンアトリビュート認識フレームワークを開発した。
論文 参考訳(メタデータ) (2023-03-26T06:59:23Z) - A POV-based Highway Vehicle Trajectory Dataset and Prediction
Architecture [2.924868086534434]
本稿では,車載トラジェクトリ,検出,追跡データセットであるEmphCarolinas Highway dataset (CHDfootnoteemphCHD)を紹介する。
また、注目に基づくグラフ同型と畳み込みニューラルネットワークを用いた新しい車両軌道予測アーキテクチャであるemphPishguVeを提案する。
その結果、emphPishguVeは既存のアルゴリズムより優れており、鳥の目、目、高角POVにおける新しい最先端(SotA)となることが示された。
論文 参考訳(メタデータ) (2023-03-10T20:38:40Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - GlideNet: Global, Local and Intrinsic based Dense Embedding NETwork for
Multi-category Attributes Prediction [27.561424604521026]
我々はGlideNetという新しい属性予測アーキテクチャを提案する。
GlideNetには3つの異なる特徴抽出器が含まれている。
最新の2つのデータセットと挑戦的なデータセットに対して、魅力的な結果を得ることができる。
論文 参考訳(メタデータ) (2022-03-07T00:32:37Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - Learning to Predict Visual Attributes in the Wild [43.91237738107603]
260K以上のオブジェクトインスタンスに対して,927K以上の属性アノテーションからなる大規模なウィジェット内属性予測データセットを導入する。
本稿では,低レベルCNN機能と高レベルCNN機能の両方を利用するベースモデルを含む,これらの課題に体系的に対処する手法を提案する。
これらの技術を用いることで,現状よりも3.7mAP,5.7ポイントのF1点が向上した。
論文 参考訳(メタデータ) (2021-06-17T17:58:02Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - CompGuessWhat?!: A Multi-task Evaluation Framework for Grounded Language
Learning [78.3857991931479]
本稿では,属性を用いたグラウンドド言語学習のための評価フレームワークGROLLAを提案する。
また、学習したニューラル表現の品質を評価するためのフレームワークの例として、新しいデータセットCompGuessWhat!?を提案する。
論文 参考訳(メタデータ) (2020-06-03T11:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。