論文の概要: A survey of Identification and mitigation of Machine Learning
algorithmic biases in Image Analysis
- arxiv url: http://arxiv.org/abs/2210.04491v1
- Date: Mon, 10 Oct 2022 08:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 15:25:56.333745
- Title: A survey of Identification and mitigation of Machine Learning
algorithmic biases in Image Analysis
- Title(参考訳): 画像解析における機械学習アルゴリズムバイアスの同定と緩和に関する調査
- Authors: Laurent Risser, Agustin Picard, Lucas Hervier, Jean-Michel Loubes
- Abstract要約: バイアスは、機械学習が画像などの高次元インプットに基づいている現代の産業的および安全クリティカルなアプリケーションを変えることができる。
しかしこの問題は、主に機械学習の文献で注目されている。
望ましくないバイアスに関連する変数は、実際には入力データに間接的に表現されるか、不明である。
これにより、AIベースのソリューションの商用展開に対する、真面目で確固たる懸念が持ち上がる。
- 参考スコア(独自算出の注目度): 3.0892724364965005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The problem of algorithmic bias in machine learning has gained a lot of
attention in recent years due to its concrete and potentially hazardous
implications in society. In much the same manner, biases can also alter modern
industrial and safety-critical applications where machine learning are based on
high dimensional inputs such as images. This issue has however been mostly left
out of the spotlight in the machine learning literature. Contrarily to societal
applications where a set of proxy variables can be provided by the common sense
or by regulations to draw the attention on potential risks, industrial and
safety-critical applications are most of the times sailing blind. The variables
related to undesired biases can indeed be indirectly represented in the input
data, or can be unknown, thus making them harder to tackle. This raises serious
and well-founded concerns towards the commercial deployment of AI-based
solutions, especially in a context where new regulations clearly address the
issues opened by undesired biases in AI. Consequently, we propose here to make
an overview of recent advances in this area, firstly by presenting how such
biases can demonstrate themselves, then by exploring different ways to bring
them to light, and by probing different possibilities to mitigate them. We
finally present a practical remote sensing use-case of industrial Fairness.
- Abstract(参考訳): 機械学習におけるアルゴリズムバイアスの問題は、その具体的かつ潜在的に社会に有害な影響があるため、近年多くの注目を集めている。
同様に、バイアスは、機械学習が画像などの高次元インプットに基づいている現代の工業的および安全クリティカルなアプリケーションも変更することができる。
しかしこの問題は、機械学習文学のスポットライトからほとんど外されている。
一般的な感覚や潜在的なリスクに注意を向けるための規制によってプロキシ変数のセットが提供できる社会的なアプリケーションとは対照的に、産業や安全に重要なアプリケーションは、ほとんど盲目である。
望ましくないバイアスに関連する変数は、実際には入力データ内で間接的に表現することができるし、未知であることもあるため、対処が困難になる。
これはAIベースのソリューションの商用展開に対して、特にAIの望ましくないバイアスによって解決される問題に、特に新たな規制が明確に対処する状況において、真面目でしっかりと根底にある懸念を提起する。
そこで,本稿では,この領域における最近の進歩を概観する。まず,バイアスがどのように自身を証明できるかを提示し,その後,それらを明るみに出す異なる方法を探索し,異なる可能性を見つけ出して緩和する方法を提案する。
産業フェアネスの実践的リモートセンシング利用事例を提示する。
関連論文リスト
- Review on the Feasibility of Adversarial Evasion Attacks and Defenses
for Network Intrusion Detection Systems [0.7829352305480285]
最近の研究は、サイバーセキュリティ分野における多くの懸念を提起している。
機械学習アルゴリズムに基づくセキュリティシステムに対する攻撃の可能性について研究する研究者が増えている。
論文 参考訳(メタデータ) (2023-03-13T11:00:05Z) - Bias and Fairness in Computer Vision Applications of the Criminal
Justice System [1.7188280334580197]
AIによる警察活動に関わる差別的慣行は、多くの議論の対象となっている。
これらの実践がいかにして存在するか、そしてそれらの緩和の難しさについて検討する。
次に、現在開発中の3つのアプリケーションを調べて、彼らが公正に影響を及ぼすリスクと、それらのリスクを緩和する方法について理解します。
論文 参考訳(メタデータ) (2022-08-05T14:48:52Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。