論文の概要: Fairness in Autonomous Driving: Towards Understanding Confounding Factors in Object Detection under Challenging Weather
- arxiv url: http://arxiv.org/abs/2406.00219v1
- Date: Fri, 31 May 2024 22:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 08:13:57.166889
- Title: Fairness in Autonomous Driving: Towards Understanding Confounding Factors in Object Detection under Challenging Weather
- Title(参考訳): 自律運転の公正性:混在した天候下での物体検出における境界要素の理解に向けて
- Authors: Bimsara Pathiraja, Caleb Liu, Ransalu Senanayake,
- Abstract要約: 本研究では,最先端の変圧器を用いた物体検出装置において,歩行者の公正さを実証的に分析する。
古典的メトリクスに加えて,オブジェクト検出の様々な複雑な特性を測定するために,新しい確率ベースのメトリクスを導入する。
筆者らによる定量的分析では、現場の人口分布、天気の重大さ、歩行者のAV接近など、これまで見過ごされていた直感的な要因が、物体検出性能にどのように影響しているかを明らかにした。
- 参考スコア(独自算出の注目度): 7.736445799116692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of autonomous vehicles (AVs) is rapidly expanding to numerous cities. At the heart of AVs, the object detection module assumes a paramount role, directly influencing all downstream decision-making tasks by considering the presence of nearby pedestrians, vehicles, and more. Despite high accuracy of pedestrians detected on held-out datasets, the potential presence of algorithmic bias in such object detectors, particularly in challenging weather conditions, remains unclear. This study provides a comprehensive empirical analysis of fairness in detecting pedestrians in a state-of-the-art transformer-based object detector. In addition to classical metrics, we introduce novel probability-based metrics to measure various intricate properties of object detection. Leveraging the state-of-the-art FACET dataset and the Carla high-fidelity vehicle simulator, our analysis explores the effect of protected attributes such as gender, skin tone, and body size on object detection performance in varying environmental conditions such as ambient darkness and fog. Our quantitative analysis reveals how the previously overlooked yet intuitive factors, such as the distribution of demographic groups in the scene, the severity of weather, the pedestrians' proximity to the AV, among others, affect object detection performance. Our code is available at https://github.com/bimsarapathiraja/fair-AV.
- Abstract(参考訳): 自動運転車(AV)の配備は、多くの都市に急速に拡大している。
AVの中心部では、物体検出モジュールが最重要な役割を担い、近くの歩行者や車両の存在を考慮し、下流の意思決定タスクに直接影響を与える。
保持されたデータセットで検出された歩行者の精度が高いにもかかわらず、そのような物体検出器、特に困難な気象条件におけるアルゴリズムバイアスの存在の可能性は、まだ不明である。
本研究では,現在最先端の変圧器を用いた物体検出装置において,歩行者の公正さを総合的に分析する。
古典的メトリクスに加えて,オブジェクト検出の様々な複雑な特性を測定するために,新しい確率ベースのメトリクスを導入する。
現状のFACETデータセットとカーラ高忠実度車両シミュレータを応用し, 環境暗黒や霧などの環境条件下での物体検出性能に及ぼす性別, 肌のトーン, 体サイズなどの保護属性の影響について検討した。
筆者らによる定量的分析では、現場の人口分布、天気の重大さ、歩行者のAV接近など、これまで見過ごされていた直感的な要因が、物体検出性能にどのように影響しているかを明らかにした。
私たちのコードはhttps://github.com/bimsarapathiraja/fair-AVで利用可能です。
関連論文リスト
- CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions [13.981748780317329]
カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
論文 参考訳(メタデータ) (2024-07-25T04:12:49Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Zone Evaluation: Revealing Spatial Bias in Object Detection [69.59295428233844]
物体検出器の基本的限界は、それらが「空間バイアス」に苦しむことである。
本稿では,ゾーン間の検出性能を計測する新しいゾーン評価プロトコルを提案する。
初めて数値的な結果が得られ、対象検出器はゾーンにわたって非常に不均一に機能することを示した。
論文 参考訳(メタデータ) (2023-10-20T01:44:49Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Dynamic and Static Object Detection Considering Fusion Regions and
Point-wise Features [7.41540085468436]
本稿では,自動運転車の前方における静的・動的物体の検出手法を提案する。
われわれのアプローチは、検出された物体から、その位置、速度、方向などの他の特徴を得ることもできる。
提案手法の性能を示すために,ベンチマークデータセットと,自律プラットフォームから得られた実世界のデータを用いて評価する。
論文 参考訳(メタデータ) (2021-07-27T09:42:18Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Object Detection Under Rainy Conditions for Autonomous Vehicles: A
Review of State-of-the-Art and Emerging Techniques [5.33024001730262]
本稿では,自律走行車における物体検出能力に対する降雨条件の影響を緩和するための最先端技術に関するチュートリアルを提案する。
我々のゴールは、澄んだ雨条件下で収集した視覚データを用いて訓練・試験された物体検出手法の性能を調査し、分析することである。
論文 参考訳(メタデータ) (2020-06-30T02:05:10Z) - Weighted Average Precision: Adversarial Example Detection in the Visual
Perception of Autonomous Vehicles [10.72357267154474]
本稿では,実用的な自律走行物体検出出力のための新しい距離測定法を提案する。
提案手法は17.76%の精度で既存の単フレームmAPベースのAE検出よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-25T23:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。