論文の概要: Fantastic Biases (What are They) and Where to Find Them
- arxiv url: http://arxiv.org/abs/2411.15051v1
- Date: Fri, 22 Nov 2024 16:38:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:04:50.172292
- Title: Fantastic Biases (What are They) and Where to Find Them
- Title(参考訳): 幻想的ビアーゼ(何者か)と発見の場所
- Authors: Valentin Barriere,
- Abstract要約: 一般にバイアスとは何かを定義しようとする。
マシンラーニングで避けたいのは、一般的に負のバイアスと見なされるものの概念に注目します。
我々はそれらを検出するための古典的な方法に目を向けて結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep Learning models tend to learn correlations of patterns on huge datasets. The bigger these systems are, the more complex are the phenomena they can detect, and the more data they need for this. The use of Artificial Intelligence (AI) is becoming increasingly ubiquitous in our society, and its impact is growing everyday. The promises it holds strongly depend on their fair and universal use, such as access to information or education for all. In a world of inequalities, they can help to reach the most disadvantaged areas. However, such a universal systems must be able to represent society, without benefiting some at the expense of others. We must not reproduce the inequalities observed throughout the world, but educate these IAs to go beyond them. We have seen cases where these systems use gender, race, or even class information in ways that are not appropriate for resolving their tasks. Instead of real causal reasoning, they rely on spurious correlations, which is what we usually call a bias. In this paper, we first attempt to define what is a bias in general terms. It helps us to demystify the concept of bias, to understand why we can find them everywhere and why they are sometimes useful. Second, we focus over the notion of what is generally seen as negative bias, the one we want to avoid in machine learning, before presenting a general zoology containing the most common of these biases. We finally conclude by looking at classical methods to detect them, by means of specially crafted datasets of templates and specific algorithms, and also classical methods to mitigate them.
- Abstract(参考訳): ディープラーニングモデルは、巨大なデータセット上のパターンの相関を学習する傾向があります。
これらのシステムが大きくなればなるほど、検出できる現象がより複雑になり、必要なデータが増えます。
人工知能(AI)の利用は、私たちの社会ではますます普及しており、その影響は日々増大しています。
その約束は、情報へのアクセスや教育など、公正で普遍的な利用に強く依存している。
不平等の世界では、最も不利な地域に到達するのに役立ちます。
しかし、このような普遍的な制度は、他者を犠牲にすることなく、社会を表現できなければならない。
我々は世界中の不平等を再現してはならないが、これらのIAAを教育して彼らを超えていく。
これらのシステムが、タスクの解決に適さない方法で、性別、人種、あるいはクラス情報を使用するケースは、これまで見てきました。
本当の因果推論の代わりに、彼らはスパイラルな相関に頼っている。
本稿では,一般用語でバイアスとは何かを定義するために,まず最初に試みる。
バイアスの概念を軽視し、なぜどこにでも見つけられるのか、なぜそれが役に立つのかを理解するのに役立ちます。
第2に、これらのバイアスの中で最も一般的な動物学を提示する前に、機械学習において避けたいものである、一般的に負のバイアスと見なされるものの概念に焦点を当てる。
最終的に、テンプレートと特定のアルゴリズムの特別なデータセットを用いて、それらを検出するための古典的な方法と、それらを緩和する古典的な方法に目を向けて、結論付けた。
関連論文リスト
- Bias Propagation in Federated Learning [22.954608704251118]
少数政党の少数派に対する偏見がネットワークを通じてネットワーク内のすべての当事者に伝播することを示す。
自然に分割された実世界のデータセット上でのフェデレーション学習におけるバイアス伝搬の分析と説明を行う。
論文 参考訳(メタデータ) (2023-09-05T11:55:03Z) - Data Bias Management [17.067962372238135]
私たちは、データのバイアスがエンドユーザに与える影響、バイアスの発生源、そして、その上で何をすべきかという視点を示します。
データバイアスは、すべてのケースにおいて必ずしも取り除くべきものではなく、代わりに研究の注意がバイアス除去からバイアス管理に移行するべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2023-05-15T10:07:27Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - De-biasing facial detection system using VAE [0.0]
AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
提案手法は,基礎となる特徴を学習するのに最適な生成モデルを用いている。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
論文 参考訳(メタデータ) (2022-04-16T11:24:37Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Towards Measuring Bias in Image Classification [61.802949761385]
畳み込みニューラルネットワーク(CNN)は、主要なコンピュータビジョンタスクの最先端技術となっている。
しかし、複雑な構造のため、その決定は産業世界の何らかの文脈での使用を制限するかを理解することは困難である。
帰属マップによるデータのバイアスを明らかにするための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-01T10:50:39Z) - Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization [93.8373619657239]
SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
論文 参考訳(メタデータ) (2021-05-12T12:12:24Z) - On the Basis of Sex: A Review of Gender Bias in Machine Learning
Applications [0.0]
まず、機械学習のジェンダーバイアスの実践例をいくつか紹介する。
次に、機械学習モデルをより公平にする方法に対処するために、最も広く使われているフェアネスの形式化を詳述する。
論文 参考訳(メタデータ) (2021-04-06T14:11:16Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。