論文の概要: State of the Art in Fair ML: From Moral Philosophy and Legislation to Fair Classifiers
- arxiv url: http://arxiv.org/abs/1811.09539v2
- Date: Sun, 26 May 2024 17:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-01 00:29:19.910413
- Title: State of the Art in Fair ML: From Moral Philosophy and Legislation to Fair Classifiers
- Title(参考訳): フェア・MLにおける最先端技術:道徳哲学と法制化からフェア・クラシファイアへ
- Authors: Elias Baumann, Josef Lorenz Rumberger,
- Abstract要約: 機械学習は、多くの決定が機械学習アルゴリズムによってなされるにつれて、私たちの生活に永遠に存在している部分になりつつある。
判決はしばしば不公平であり、人種や性別に基づいて保護された集団を差別する。
この研究は、差別、それに対抗する立法府、そして機械学習アルゴリズムをそのような行動から検出し、予防するための戦略について紹介することを目的としている。
- 参考スコア(独自算出の注目度): 1.3300455020806103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is becoming an ever present part in our lives as many decisions, e.g. to lend a credit, are no longer made by humans but by machine learning algorithms. However those decisions are often unfair and discriminating individuals belonging to protected groups based on race or gender. With the recent General Data Protection Regulation (GDPR) coming into effect, new awareness has been raised for such issues and with computer scientists having such a large impact on peoples lives it is necessary that actions are taken to discover and prevent discrimination. This work aims to give an introduction into discrimination, legislative foundations to counter it and strategies to detect and prevent machine learning algorithms from showing such behavior.
- Abstract(参考訳): 例えば、クレジットを貸すといった多くの決定は、もはや人間ではなく、機械学習アルゴリズムによって作られています。
しかし、これらの決定はしばしば不公平であり、人種や性別に基づいて保護グループに属する個人を差別する。
近年のGDPR(General Data Protection Regulation)が施行されたことにより、このような問題に対して新たな認識が生まれ、コンピュータ科学者が人々の生活に大きな影響を与えているため、差別の発見と防止のために行動を取る必要がある。
この研究は、差別、それに対抗するための立法基盤、そして機械学習アルゴリズムがそのような行動を示さないよう検出および防止するための戦略について紹介することを目的としている。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Equalizing Credit Opportunity in Algorithms: Aligning Algorithmic
Fairness Research with U.S. Fair Lending Regulation [27.517669481719388]
信用は、アメリカにおける財政の健全化に欠かせない要素である。
機械学習アルゴリズムは、クレジットへのアクセスを決定するためにますます使われている。
機械学習が「不公平」の様々なバージョンをエンコードできることが研究で示されている
論文 参考訳(メタデータ) (2022-10-05T19:23:29Z) - Fairness and Bias in Robot Learning [7.517692820105885]
本稿では,技術的,倫理的,法的課題にまたがる学際的な観点から,ロボット学習における公正性に関する最初の調査を紹介する。
偏見の源泉とその原因となる差別の分類法を提案する。
本稿では,公平性の定義,倫理的・法的考察,公平なロボット学習の方法などについて述べる。
論文 参考訳(メタデータ) (2022-07-07T17:20:15Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Discrimination in machine learning algorithms [0.0]
機械学習アルゴリズムは、例えば信用スコアリングアルゴリズムがローンを拒否するため、個人に直接影響を及ぼす可能性のあるビジネス上の決定に日常的に使用される。
そして、倫理的(かつ法的)の観点から、これらのアルゴリズムが(性や人種のような)センシティブな属性に基づいて識別しないことを保証する。
論文 参考訳(メタデータ) (2022-06-30T21:35:42Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。