論文の概要: Towards Measuring Bias in Image Classification
- arxiv url: http://arxiv.org/abs/2107.00360v1
- Date: Thu, 1 Jul 2021 10:50:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 14:01:27.404661
- Title: Towards Measuring Bias in Image Classification
- Title(参考訳): 画像分類におけるバイアス測定に向けて
- Authors: Nina Schaaf, Omar de Mitri, Hang Beom Kim, Alexander Windberger, Marco
F. Huber
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 61.802949761385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNN) have become de fact state-of-the-art for
the main computer vision tasks. However, due to the complex underlying
structure their decisions are hard to understand which limits their use in some
context of the industrial world. A common and hard to detect challenge in
machine learning (ML) tasks is data bias. In this work, we present a systematic
approach to uncover data bias by means of attribution maps. For this purpose,
first an artificial dataset with a known bias is created and used to train
intentionally biased CNNs. The networks' decisions are then inspected using
attribution maps. Finally, meaningful metrics are used to measure the
attribution maps' representativeness with respect to the known bias. The
proposed study shows that some attribution map techniques highlight the
presence of bias in the data better than others and metrics can support the
identification of bias.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な基盤構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解するのは難しい。
機械学習(ML)タスクにおける課題の一般的な検出は、データのバイアスである。
本研究では,帰属マップを用いてデータバイアスを明らかにするための体系的アプローチを提案する。
この目的のために、まず、既知のバイアスを持つ人工データセットを作成し、意図的にバイアスのあるCNNをトレーニングするために使用します。
ネットワークの決定は帰属マップを用いて検査される。
最後に、有意義な指標を用いて、既知のバイアスに対する帰属写像の代表性を測定する。
提案研究は,データにバイアスが存在することを強調する帰属マップ手法と,バイアスの同定を支援するメトリクスが提案されている。
関連論文リスト
- Data Bias Management [17.067962372238135]
私たちは、データのバイアスがエンドユーザに与える影響、バイアスの発生源、そして、その上で何をすべきかという視点を示します。
データバイアスは、すべてのケースにおいて必ずしも取り除くべきものではなく、代わりに研究の注意がバイアス除去からバイアス管理に移行するべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2023-05-15T10:07:27Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Unsupervised Learning of Unbiased Visual Representations [10.871587311621974]
ディープニューラルネットワークは、データセットにバイアスが存在するときに堅牢な表現を学習できないことで知られている。
我々は3つのステップからなる完全に教師なしの脱バイアスフレームワークを提案する。
我々は、非バイアスモデルを得るために最先端の教師付き脱バイアス技術を採用している。
論文 参考訳(メタデータ) (2022-04-26T10:51:50Z) - De-biasing facial detection system using VAE [0.0]
AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
提案手法は,基礎となる特徴を学習するのに最適な生成モデルを用いている。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
論文 参考訳(メタデータ) (2022-04-16T11:24:37Z) - Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing [17.113618920885187]
本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-03-10T16:50:42Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。