論文の概要: Detecting discriminatory risk through data annotation based on Bayesian
inferences
- arxiv url: http://arxiv.org/abs/2101.11358v1
- Date: Wed, 27 Jan 2021 12:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-13 19:40:34.941496
- Title: Detecting discriminatory risk through data annotation based on Bayesian
inferences
- Title(参考訳): ベイズ推定に基づくデータアノテーションによる差別リスクの検出
- Authors: Elena Beretta, Antonio Vetr\`o, Bruno Lepri, Juan Carlos De Martin
- Abstract要約: 本稿では,与えられたデータセットの判別結果のリスクについて警告することを目的としたデータアノテーション手法を提案する。
機械学習コミュニティが一般的にアクセスする3つのデータセット上で,我々のシステムを実証的にテストする。
- 参考スコア(独自算出の注目度): 5.017973966200985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Thanks to the increasing growth of computational power and data availability,
the research in machine learning has advanced with tremendous rapidity.
Nowadays, the majority of automatic decision making systems are based on data.
However, it is well known that machine learning systems can present problematic
results if they are built on partial or incomplete data. In fact, in recent
years several studies have found a convergence of issues related to the ethics
and transparency of these systems in the process of data collection and how
they are recorded. Although the process of rigorous data collection and
analysis is fundamental in the model design, this step is still largely
overlooked by the machine learning community. For this reason, we propose a
method of data annotation based on Bayesian statistical inference that aims to
warn about the risk of discriminatory results of a given data set. In
particular, our method aims to deepen knowledge and promote awareness about the
sampling practices employed to create the training set, highlighting that the
probability of success or failure conditioned to a minority membership is given
by the structure of the data available. We empirically test our system on three
datasets commonly accessed by the machine learning community and we investigate
the risk of racial discrimination.
- Abstract(参考訳): 計算能力とデータ可用性の増大により、機械学習の研究は驚異的なスピードで進んでいます。
現在、自動意思決定システムの大部分はデータに基づいています。
しかし、機械学習システムが部分的あるいは不完全なデータに基づいて構築されている場合、問題のある結果をもたらすことはよく知られている。
実際、近年、データ収集の過程でこれらのシステムの倫理と透明性に関連する問題の収束と記録方法がいくつかの研究で発見されています。
厳密なデータ収集と分析のプロセスはモデル設計において基本的なものであるが、このステップは依然として機械学習コミュニティによって見過ごされている。
そこで本研究では,与えられたデータセットの判別結果のリスクについて警告することを目的とした,ベイズ統計推論に基づくデータアノテーション手法を提案する。
特に,マイノリティ会員に条件づけられた成功や失敗の確率は,利用可能なデータの構造によって与えられることを強調して,学習セット作成に採用されるサンプリングプラクティスに対する知識の深化と認識の促進を目的としている。
私たちは、機械学習コミュニティが一般にアクセスする3つのデータセットでシステムを実証的にテストし、人種差別のリスクを調査します。
関連論文リスト
- Non-IID data in Federated Learning: A Systematic Review with Taxonomy, Metrics, Methods, Frameworks and Future Directions [2.9434966603161072]
この体系的なレビューは、非IIDデータ、パーティションプロトコル、メトリクスの詳細な分類を提供することによってギャップを埋めることを目的としている。
非IIDデータに対処するための一般的なソリューションと、異種データを用いたフェデレートラーニングで使用される標準化されたフレームワークについて述べる。
論文 参考訳(メタデータ) (2024-11-19T09:53:28Z) - Informed Decision-Making through Advancements in Open Set Recognition and Unknown Sample Detection [0.0]
オープンセット認識(OSR)は、より現実に近い状況に分類タスクを導入することを目的としている。
本研究は,OSRタスクの分類を改善するために,特徴空間の新たな表現を探索するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-05-09T15:15:34Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Resilient Neural Forecasting Systems [10.709321760368137]
産業用機械学習システムは、学術文献でしばしば過小評価されるデータ課題に直面している。
本稿では、労働計画におけるニューラル予測アプリケーションのコンテキストにおけるデータ課題と解決策について論じる。
本稿では,周期的リトレーニング方式によるデータ分布の変化に対処し,この設定におけるモデル安定性の重要性について論じる。
論文 参考訳(メタデータ) (2022-03-16T09:37:49Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - FAE: A Fairness-Aware Ensemble Framework [18.993049769711114]
FAE(Fairness-Aware Ensemble)フレームワークは、データ分析プロセスの前処理と後処理の両方でフェアネスに関連する介入を組み合わせる。
事前処理では,保護群とクラス不均衡の問題に対処する。
後処理のステップでは、決定境界を公平な方向にシフトさせることにより、クラスオーバーラップの問題に取り組む。
論文 参考訳(メタデータ) (2020-02-03T13:05:18Z) - Leveraging Semi-Supervised Learning for Fairness using Neural Networks [49.604038072384995]
機械学習に基づく意思決定システムの公平性に対する懸念が高まっている。
本稿では,ラベルのないデータから得られるニューラルネットワークを用いた半教師付きアルゴリズムを提案する。
提案したSSFairと呼ばれるモデルは、ラベルのないデータの情報を活用して、トレーニングデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2019-12-31T09:11:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。