論文の概要: An Introduction to Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2105.05595v1
- Date: Wed, 12 May 2021 11:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 08:51:52.198387
- Title: An Introduction to Algorithmic Fairness
- Title(参考訳): アルゴリズム的公平性入門
- Authors: Hilde J.P. Weerts
- Abstract要約: フェアネスに関連する害の種類を列挙し、アルゴリズム的フェアネスの2つの主要な概念を説明し、これらが機械学習開発プロセスに害を与えるバイアスをマップする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, there has been an increasing awareness of both the public
and scientific community that algorithmic systems can reproduce, amplify, or
even introduce unfairness in our societies. These lecture notes provide an
introduction to some of the core concepts in algorithmic fairness research. We
list different types of fairness-related harms, explain two main notions of
algorithmic fairness, and map the biases that underlie these harms upon the
machine learning development process.
- Abstract(参考訳): 近年,アルゴリズムシステムが社会に不公平を再現・増幅・導入できるという認識が高まっている。
これらの講義ノートはアルゴリズムフェアネス研究における中核的な概念の紹介である。
フェアネスに関連する害の種類を列挙し、アルゴリズム的フェアネスの2つの主要な概念を説明し、これらの害を補うバイアスを機械学習開発プロセスにマップする。
関連論文リスト
- Algorithmic Fairness with Feedback [0.0]
まず、ノイズデータに基づく決定において、公平性アルゴリズムの統計的概念が、公平性の概念とは無関係であることを示す。
次に、公正性、うらやましい自由、偏見の自由性の2つの個別の福祉的概念について議論し、エラーレートバランスと予測パリティに相当する条件を確立する。
論文 参考訳(メタデータ) (2023-12-05T21:42:14Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - BeFair: Addressing Fairness in the Banking Sector [54.08949958349055]
銀行セクターにおける産業的オープンイノベーションプロジェクトの最初の成果を提示する。
本稿では,MLの公平性に関する一般的なロードマップと,バイアスの特定と緩和を支援するBeFairと呼ばれるツールキットの実装を提案する。
論文 参考訳(メタデータ) (2021-02-03T16:37:10Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。