論文の概要: Analyzing and Mitigating Bias for Vulnerable Classes: Towards Balanced
Representation in Dataset
- arxiv url: http://arxiv.org/abs/2401.10397v1
- Date: Thu, 18 Jan 2024 22:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 17:18:09.397949
- Title: Analyzing and Mitigating Bias for Vulnerable Classes: Towards Balanced
Representation in Dataset
- Title(参考訳): 脆弱性クラスに対するバイアスの分析と緩和:データセットのバランス表現に向けて
- Authors: Dewant Katare, David Solans Noguero, Souneil Park, Nicolas Kourtellis,
Marijn Janssen, Aaron Yi Ding
- Abstract要約: 本研究は, クラス分布分析, 性能評価, バイアス影響評価に着目し, 脆弱な道路利用者に対するクラス不均衡に着目した。
クラス表現における不均衡の懸念を識別し、検出精度に潜在的なバイアスをもたらす。
本稿では,データ拡張,再サンプリング,メトリクス固有の学習を含むモデル最適化とバイアス軽減手法を提案する。
- 参考スコア(独自算出の注目度): 2.271244505964795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accuracy and fairness of perception systems in autonomous driving are
crucial, particularly for vulnerable road users. Mainstream research has looked
into improving the performance metrics for classification accuracy. However,
the hidden traits of bias inheritance in the AI models, class imbalances and
disparities in the datasets are often overlooked. In this context, our study
examines the class imbalances for vulnerable road users by focusing on class
distribution analysis, performance evaluation, and bias impact assessment. We
identify the concern of imbalances in class representation, leading to
potential biases in detection accuracy. Utilizing popular CNN models and Vision
Transformers (ViTs) with the nuScenes dataset, our performance evaluation
reveals detection disparities for underrepresented classes. We propose a
methodology for model optimization and bias mitigation, which includes data
augmentation, resampling, and metric-specific learning. Using the proposed
mitigation approaches, we see improvement in IoU(%) and NDS(%) metrics from
71.3 to 75.6 and 80.6 to 83.7 respectively, for the CNN model. Similarly, for
ViT, we observe improvement in IoU and NDS metrics from 74.9 to 79.2 and 83.8
to 87.1 respectively. This research contributes to developing more reliable
models and datasets, enhancing inclusiveness for minority classes.
- Abstract(参考訳): 自動運転における認識システムの正確性と公平性は、特に脆弱な道路利用者にとって重要である。
主流研究は、分類精度向上のためのパフォーマンス指標の改善を検討した。
しかし、AIモデルにおけるバイアス継承の隠れた特徴、クラス不均衡、データセットにおける格差はしばしば見過ごされている。
本研究では,クラス分布分析,性能評価,バイアス影響評価に着目し,脆弱な道路利用者のクラス不均衡について検討する。
クラス表現における不均衡の懸念を認識し、検出精度の潜在的なバイアスをもたらす。
一般的なCNNモデルとヴィジュアルトランスフォーマー(ViT)をnuScenesデータセットで利用することにより,表現不足のクラスに対する検出の相違を明らかにする。
本稿では,データ拡張,再サンプリング,計量特化学習を含むモデル最適化とバイアス軽減手法を提案する。
提案手法を用いることで、CNNモデルでは、71.3から75.6までのIoU(%)とNDS(%)のメトリクスが改善され、80.6から83.7となる。
同様に、ViTでは、IoUとNDSのメトリクスがそれぞれ74.9から79.2に改善され、83.8から87.1に改善された。
この研究は、より信頼性の高いモデルとデータセットの開発に寄与し、マイノリティクラスの包括性を高めている。
関連論文リスト
- CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - Understanding the Detrimental Class-level Effects of Data Augmentation [63.1733767714073]
最適な平均精度を達成するには、ImageNetで最大20%の個々のクラスの精度を著しく損なうコストがかかる。
本稿では,DAがクラスレベルの学習力学とどのように相互作用するかを理解するためのフレームワークを提案する。
そこで本研究では, クラス条件拡張戦略により, 負の影響を受けるクラスの性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-07T18:37:43Z) - Beyond Accuracy: Statistical Measures and Benchmark for Evaluation of
Representation from Self-Supervised Learning [39.424931953675994]
自己教師付きメートル法学習は、一般的な距離関数を学習する可能性に注意を向けている。
我々は,ImageNet-21K と WordNet をベースとした,クラスの多様性と粒度を備えた大規模ベンチマークを提案する。
SMLBは、14M以上の画像、20Kクラス、および16Kの分類ノードで識別的識別性と一般化性を厳格に評価するように設計されている。
論文 参考訳(メタデータ) (2023-12-02T12:23:46Z) - Topological Augmentation for Class-Imbalanced Node Classification [64.20437487896343]
探索下トポロジ中心の視点から,クラス不均衡バイアスの源泉について検討した。
そこで我々は, アンビバシアン/ディスタントメッセージパッシングの影響を受けやすいノードを動的に修正する, 軽量なトポロジカル拡張手法TOBAを考案した。
ToBAはモデルに依存しない、効率的で多用途なソリューションであり、シームレスに組み合わせて、他の不均衡処理技術をさらに促進することができる。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - SSL-CPCD: Self-supervised learning with composite pretext-class
discrimination for improved generalisability in endoscopic image analysis [3.1542695050861544]
深層学習に基づく教師付き手法は医用画像解析において広く普及している。
大量のトレーニングデータと、目に見えないデータセットに対する一般的な問題に直面する必要がある。
本稿では,加法的角マージンを用いたパッチレベルのインスタンスグループ識別とクラス間変動のペナル化について検討する。
論文 参考訳(メタデータ) (2023-05-31T21:28:08Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Investigating Bias In Automatic Toxic Comment Detection: An Empirical
Study [1.5609988622100528]
オンラインプラットフォームの増加に伴い、これらのプラットフォーム上でのユーザーエンゲージメントは、コメントやリアクションを通じて急増している。
このような文章によるコメントの大部分は、聴衆に対して虐待的で無礼で侮辱的です。
機械学習システムがプラットフォームに現れるコメントをチェックするために、トレーニングデータに存在するバイアスが分類器に渡され、クラス、宗教、性別のセットに対する差別につながる。
論文 参考訳(メタデータ) (2021-08-14T08:24:13Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - TARA: Training and Representation Alteration for AI Fairness and Domain
Generalization [6.6147550436077776]
この方法は、AIバイアスの顕著な原因の軽減のためにトレーニングおよび表現変換(TARA)を実行するデュアル戦略を使用します。
画像解析の手法をテストすると、実験により、TARAがベースラインモデルを著しく、あるいは完全に破壊することを示した。
偏り評価に使用される現在の測定基準の一定の限界を認識し, 新たな整合性偏り測定基準を提案する。
論文 参考訳(メタデータ) (2020-12-11T14:39:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。