論文の概要: "Just Drive": Colour Bias Mitigation for Semantic Segmentation in the
Context of Urban Driving
- arxiv url: http://arxiv.org/abs/2112.01121v1
- Date: Thu, 2 Dec 2021 10:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:30:14.186112
- Title: "Just Drive": Colour Bias Mitigation for Semantic Segmentation in the
Context of Urban Driving
- Title(参考訳): ジャストドライブ」:都市運転の文脈におけるセマンティックセグメンテーションのためのカラーバイアス緩和
- Authors: Jack Stelling and Amir Atapour-Abarghouei
- Abstract要約: 畳み込みニューラルネットワークは、幾何学よりも色やテクスチャに頼っていることが示されている。
本稿では,都会の運転シーンにおけるセマンティックセグメンテーションモデルによって生じるバイアスを,反復的に訓練された未学習アルゴリズムを用いて緩和する。
- 参考スコア(独自算出の注目度): 8.147652597876862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biases can filter into AI technology without our knowledge. Oftentimes,
seminal deep learning networks champion increased accuracy above all else. In
this paper, we attempt to alleviate biases encountered by semantic segmentation
models in urban driving scenes, via an iteratively trained unlearning
algorithm. Convolutional neural networks have been shown to rely on colour and
texture rather than geometry. This raises issues when safety-critical
applications, such as self-driving cars, encounter images with covariate shift
at test time - induced by variations such as lighting changes or seasonality.
Conceptual proof of bias unlearning has been shown on simple datasets such as
MNIST. However, the strategy has never been applied to the safety-critical
domain of pixel-wise semantic segmentation of highly variable training data -
such as urban scenes. Trained models for both the baseline and bias unlearning
scheme have been tested for performance on colour-manipulated validation sets
showing a disparity of up to 85.50% in mIoU from the original RGB images -
confirming segmentation networks strongly depend on the colour information in
the training data to make their classification. The bias unlearning scheme
shows improvements of handling this covariate shift of up to 61% in the best
observed case - and performs consistently better at classifying the "human" and
"vehicle" classes compared to the baseline model.
- Abstract(参考訳): バイアスは私たちの知識なしにAI技術にフィルターできる。
多くの場合、精巧なディープラーニングネットワークは、他の何よりも精度を高めます。
本稿では,都市走行場面における意味セグメンテーションモデルに遭遇するバイアスを,反復学習アンラーニングアルゴリズムを用いて軽減する。
畳み込みニューラルネットワークは、幾何学よりも色とテクスチャに依存することが示されている。
これは、自動運転車のような安全クリティカルなアプリケーションにおいて、テスト時に共変量シフトを伴う画像に遭遇した場合に問題を引き起こす。
バイアスアンラーニングの概念的証明は、MNISTのような単純なデータセットで示されている。
しかし、この戦略は、都市シーンのような高度に可変なトレーニングデータの画素単位の意味セマンティックセグメンテーションの安全クリティカル領域に適用されることはなかった。
ベースラインとバイアスアンラーニング・スキームの訓練されたモデルは、元のrgb画像とmiouの85.50%の差を示す色操作検証セットのパフォーマンスをテストされ、セグメンテーションネットワークは、トレーニングデータの色情報に強く依存して分類されている。
バイアス・アンラーニング・スキームは、最も観察されたケースでは最大61%の共変量シフトを扱うことの改善を示し、ベースラインモデルと比較して「人間」と「獣」のクラスを一貫して分類する。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Exploring Color Invariance through Image-Level Ensemble Learning [7.254270666779331]
本研究ではランダムカラー消去という学習戦略を紹介する。
元の画像構造を乱すことなく、トレーニングデータの部分的又は完全な色情報を選択的に消去する。
このアプローチは、過剰適合のリスクを軽減し、色の変化を処理するモデルの能力を強化する。
論文 参考訳(メタデータ) (2024-01-19T06:04:48Z) - Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - On the ability of CNNs to extract color invariant intensity based
features for image classification [4.297070083645049]
畳み込みニューラルネットワーク(CNN)は視覚関連タスクにおいて顕著な成功を収めている。
近年の研究では、画像分類作業において、CNNは対象形状ではなくテクスチャに偏っていることが示唆されている。
本稿では,CNNが文脈や背景を維持しつつ,画像内の異なる色分布に適応できる能力について検討する。
論文 参考訳(メタデータ) (2023-07-13T00:36:55Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Increasing the Robustness of Semantic Segmentation Models with
Painting-by-Numbers [39.95214171175713]
我々は,物体の形状に対するネットワークバイアスを増大させることにより,出力を改善することができる画像分類からの洞察に基づいて構築する。
我々の基本的な考え方は、RGBトレーニング画像の一部を偽画像でアルファブレンドすることであり、各クラスラベルには、固定されたランダムに選択された色が与えられる。
各種ネットワークバックボーン,MobileNet-V2,ResNets,Xceptionを用いたDeepLabv3+のトレーニングスキーマの有効性を実証し,Cityscapesデータセットで評価した。
論文 参考訳(メタデータ) (2020-10-12T07:42:39Z) - Data Augmentation and Clustering for Vehicle Make/Model Classification [0.0]
我々は、異なる年にリリースされ、異なる視点で捕獲された車両のトレーニングデータセットを利用する方法を提案する。
また, クラスタリングによる製造・モデル分類の強化効果を示す。
ResNetアーキテクチャに基づくより深い畳み込みニューラルネットワークは、車両製造/モデル分類のトレーニングのために設計されている。
論文 参考訳(メタデータ) (2020-09-14T18:24:31Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。