論文の概要: Attribute Annotation and Bias Evaluation in Visual Datasets for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2312.06306v1
- Date: Mon, 11 Dec 2023 11:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 15:54:03.686970
- Title: Attribute Annotation and Bias Evaluation in Visual Datasets for
Autonomous Driving
- Title(参考訳): 自律運転のための視覚データセットにおける属性アノテーションとバイアス評価
- Authors: David Fern\'andez Llorca, Pedro Frau, Ignacio Parra, Rub\'en
Izquierdo, Emilia G\'omez
- Abstract要約: 我々は、訓練者や車両検出システムに最もよく使用される視覚的データセットに現れるバイアスに着目した分析を行う。
本稿では,視覚的データセット中のエージェントの保護属性に注釈を付けるためのアノテーション手法とアノテーションツールを紹介する。
例えば、年齢、性別、肌の色、グループ、輸送手段、車種、色、車種は50万台以上である。
- 参考スコア(独自算出の注目度): 0.3595110752516458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the often overlooked issue of fairness in the autonomous
driving domain, particularly in vision-based perception and prediction systems,
which play a pivotal role in the overall functioning of Autonomous Vehicles
(AVs). We focus our analysis on biases present in some of the most commonly
used visual datasets for training person and vehicle detection systems. We
introduce an annotation methodology and a specialised annotation tool, both
designed to annotate protected attributes of agents in visual datasets. We
validate our methodology through an inter-rater agreement analysis and provide
the distribution of attributes across all datasets. These include annotations
for the attributes age, sex, skin tone, group, and means of transport for more
than 90K people, as well as vehicle type, colour, and car type for over 50K
vehicles. Generally, diversity is very low for most attributes, with some
groups, such as children, wheelchair users, or personal mobility vehicle users,
being extremely underrepresented in the analysed datasets. The study
contributes significantly to efforts to consider fairness in the evaluation of
perception and prediction systems for AVs. This paper follows reproducibility
principles. The annotation tool, scripts and the annotated attributes can be
accessed publicly at https://github.com/ec-jrc/humaint_annotator.
- Abstract(参考訳): 本稿では、自動運転車(avs)の全体機能において重要な役割を果たす視覚に基づく知覚・予測システムにおいて、自動運転領域においてしばしば見過ごされがちな公平性の問題について論じる。
我々は、訓練者や車両検出システムに最もよく使用される視覚的データセットに現れるバイアスに着目した分析を行う。
本稿では,視覚的データセットにおけるエージェントの保護属性をアノテーション化するアノテーション手法とアノテーションツールを紹介する。
提案手法は, レータ間合意分析により検証し, 全データセットに属性分布を提供する。
これには、年齢、性別、肌の色、グループ、輸送手段、車種、車種、色、車種などが含まれる。
一般的に、多くの属性において多様性は非常に低く、子供、車いす、パーソナルモビリティーの利用者など一部のグループは、分析されたデータセットで非常に過小評価されている。
本研究は, AVに対する知覚・予測システムの評価における公平性の検討に大きく貢献する。
本論文は再現性原理に従う。
アノテーションツール、スクリプト、注釈付き属性はhttps://github.com/ec-jrc/humaint_annotator.com/で公開されている。
関連論文リスト
- Learning Decomposable and Debiased Representations via Attribute-Centric Information Bottlenecks [21.813755593742858]
データセット内のターゲットラベルと突発的に相関するバイアス属性は、分類の不適切なショートカットを学習するニューラルネットワークに問題を引き起こす可能性がある。
本稿では,属性の合成表現を学習するための注目に基づく情報ボトルネックを導入し,新たなデバイアス化フレームワークであるデバイアスンググローバルワークスペースを提案する。
偏りのあるデータセットに対する包括的評価と定量的および定性的な分析を行い、アプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-21T05:33:49Z) - Rank2Tell: A Multimodal Driving Dataset for Joint Importance Ranking and
Reasoning [19.43430577960824]
本稿では,重要度をランク付けするマルチモーダル・エゴ中心のデータセットである Rank2Tell を紹介し,その重要性の理由を述べる。
クローズドでオープンな様々な視覚的質問応答を用いて、複雑な交通シナリオにおいて、データセットは様々な重要なオブジェクトの様々な意味、空間的、時間的、関係的な属性の密接なアノテーションを提供する。
論文 参考訳(メタデータ) (2023-09-12T20:51:07Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Large Scale Autonomous Driving Scenarios Clustering with Self-supervised
Feature Extraction [6.804209932400134]
本稿では,自動車運転データの大規模集合に対する包括的データクラスタリングフレームワークを提案する。
提案手法では,トラヒック内エージェントオブジェクトとマップ情報の両方を含むトラフィック要素を網羅的に検討する。
新たに設計されたデータクラスタリング評価メトリクスは、データ拡張に基づくものであるため、精度評価には人間のラベル付きデータセットは必要ない。
論文 参考訳(メタデータ) (2021-03-30T06:22:40Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。