論文の概要: ICON$^2$: Reliably Benchmarking Predictive Inequity in Object Detection
- arxiv url: http://arxiv.org/abs/2306.04482v1
- Date: Wed, 7 Jun 2023 17:42:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 14:01:49.882361
- Title: ICON$^2$: Reliably Benchmarking Predictive Inequity in Object Detection
- Title(参考訳): ICON$^2$: オブジェクト検出における予測不等式を確実にベンチマークする
- Authors: Sruthi Sudhakar, Viraj Prabhu, Olga Russakovsky, Judy Hoffman
- Abstract要約: コンピュータビジョンシステムにおける社会的バイアスに関する懸念が高まっている。
ICON$2$は、この問題にしっかりと答えるためのフレームワークです。
BDD100K運転データセットから得られる収入に関して,物体検出の性能に関する詳細な研究を行う。
- 参考スコア(独自算出の注目度): 23.419153864862174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As computer vision systems are being increasingly deployed at scale in
high-stakes applications like autonomous driving, concerns about social bias in
these systems are rising. Analysis of fairness in real-world vision systems,
such as object detection in driving scenes, has been limited to observing
predictive inequity across attributes such as pedestrian skin tone, and lacks a
consistent methodology to disentangle the role of confounding variables e.g.
does my model perform worse for a certain skin tone, or are such scenes in my
dataset more challenging due to occlusion and crowds? In this work, we
introduce ICON$^2$, a framework for robustly answering this question. ICON$^2$
leverages prior knowledge on the deficiencies of object detection systems to
identify performance discrepancies across sub-populations, compute correlations
between these potential confounders and a given sensitive attribute, and
control for the most likely confounders to obtain a more reliable estimate of
model bias. Using our approach, we conduct an in-depth study on the performance
of object detection with respect to income from the BDD100K driving dataset,
revealing useful insights.
- Abstract(参考訳): コンピュータービジョンシステムは、自動運転のような高度なアプリケーションで大規模に展開されているため、これらのシステムにおける社会的偏見への懸念が高まっている。
運転シーンにおける物体検出のような現実世界の視覚システムにおける公平性の分析は、歩行者の肌のトーンのような属性間の予測の不平等を観察することに限定されており、例えば、私のモデルは特定の肌のトーンに対してより良く振る舞うのか、あるいは私のデータセットのそのようなシーンは、閉塞や群衆のためにもっと難しいのか、といった、結合変数の役割を異にする一貫した方法論を欠いている。
本稿では、この問題にしっかりと答えるフレームワークであるICON$^2$を紹介します。
ICON$^2$は、オブジェクト検出システムの欠陥に関する事前の知識を活用して、サブポピュレーション間のパフォーマンスの相違を識別し、潜在的な共同創設者と与えられた機密属性の間の相関を計算し、最も可能性の高い共同創設者がモデルバイアスをより信頼性の高い推定値を得るように制御する。
このアプローチを用いて,BDD100K駆動データセットから得られる収入に関して,オブジェクト検出のパフォーマンスに関する詳細な研究を行い,有用な洞察を明らかにした。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - A Reliable Framework for Human-in-the-Loop Anomaly Detection in Time Series [17.08674819906415]
HILADは、人間とAIの動的かつ双方向なコラボレーションを促進するために設計された、新しいフレームワークである。
ビジュアルインターフェースを通じて、HILADはドメインの専門家に、大規模な予期せぬモデルの振る舞いを検出し、解釈し、修正する権限を与えます。
論文 参考訳(メタデータ) (2024-05-06T07:44:07Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Automated Deception Detection from Videos: Using End-to-End Learning
Based High-Level Features and Classification Approaches [0.0]
深層学習と識別モデルを組み合わせたマルチモーダル手法を提案する。
我々は畳み込み学習を用いて、視線、頭ポーズ、表情を解析する。
提案手法は, 経済要因による新しいローリングディース実験を含む5つのデータセットで評価される。
論文 参考訳(メタデータ) (2023-07-13T08:45:15Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。