論文の概要: Demonstrating Rosa: the fairness solution for any Data Analytic pipeline
- arxiv url: http://arxiv.org/abs/2003.00899v2
- Date: Fri, 5 Mar 2021 15:59:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:49:07.034093
- Title: Demonstrating Rosa: the fairness solution for any Data Analytic pipeline
- Title(参考訳): rosaを実証する: データ分析パイプラインの公平性ソリューション
- Authors: Kate Wilkinson, George Cevora
- Abstract要約: 我々は、選択した特徴に関してデータセットを簡単にデバイアスする無料のWebベースのツールであるRosaを紹介した。
Rosa は illumr Ltd が開発した Fair Adversarial Networks の原則に基づいている。
我々は,5つの実世界のデータセット上で標準DAタスクを実行することにより,データ駆動意思決定システムからバイアスを除去するRosaの有効性を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Most datasets of interest to the analytics industry are impacted by various
forms of human bias. The outcomes of Data Analytics [DA] or Machine Learning
[ML] on such data are therefore prone to replicating the bias. As a result, a
large number of biased decision-making systems based on DA/ML have recently
attracted attention. In this paper we introduce Rosa, a free, web-based tool to
easily de-bias datasets with respect to a chosen characteristic. Rosa is based
on the principles of Fair Adversarial Networks, developed by illumr Ltd., and
can therefore remove interactive, non-linear, and non-binary bias. Rosa is
stand-alone pre-processing step / API, meaning it can be used easily with any
DA/ML pipeline. We test the efficacy of Rosa in removing bias from data-driven
decision making systems by performing standard DA tasks on five real-world
datasets, selected for their relevance to current DA problems, and also their
high potential for bias. We use simple ML models to model a characteristic of
analytical interest, and compare the level of bias in the model output both
with and without Rosa as a pre-processing step. We find that in all cases there
is a substantial decrease in bias of the data-driven decision making systems
when the data is pre-processed with Rosa.
- Abstract(参考訳): 分析業界に関心のあるデータセットの多くは、さまざまな人間のバイアスの影響を受けている。
このようなデータに対するデータ分析(DA)や機械学習(ML)の結果は、バイアスを複製する傾向があります。
その結果、da/mlに基づく多数のバイアスのある意思決定システムが最近注目を集めている。
本稿では、選択した特徴に対してデータセットを簡単にデバイアスする自由なWebベースのツールであるRosaを紹介する。
Rosaは、Irumr Ltd.が開発したFair Adversarial Networksの原則に基づいており、インタラクティブで非線形で非バイナリバイアスを取り除くことができる。
Rosaはスタンドアロンの事前処理ステップ/APIであり、任意のDA/MLパイプラインで簡単に使用できる。
我々は,データ駆動意思決定システムからのバイアス除去におけるrosaの有効性を,5つの実世界のデータセット上で標準daタスクを実行し,現在のda問題との関連性から選択した。
我々は,単純なmlモデルを用いて解析的関心特性をモデル化し,ローザを前処理ステップとしないモデル出力のバイアスレベルを比較する。
すべてのケースにおいて、データがRosaで前処理された場合、データ駆動意思決定システムのバイアスは大幅に減少する。
関連論文リスト
- DiffInject: Revisiting Debias via Synthetic Data Generation using Diffusion-based Style Injection [9.801159950963306]
DiffInject(ディフインジェクション)は,事前学習した拡散モデルを用いて,合成バイアス競合サンプルを増強する強力な手法である。
私たちのフレームワークでは、バイアスタイプやラベル付けに関する明確な知識は必要ありません。
論文 参考訳(メタデータ) (2024-06-10T09:45:38Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Dataset Bias Mitigation in Multiple-Choice Visual Question Answering and
Beyond [93.96982273042296]
視覚言語(VL)理解タスクは、複数の質問を通じて複雑な視覚シーンのモデルによる理解を評価する。
我々は、モデルが様々なVLタスクを適切に理解することなく正しく解決するために、ショートカットとして活用できる2つのデータセットバイアスを特定した。
本稿では,ADS(Adversarial Data Synthesis)を用いて,合成学習データと偏り評価データを生成する。
次に、サンプル内微分に着目して、合成したトレーニングデータ、特に対物データを利用するモデルを支援するために、サンプル内対物訓練(ICT)を導入する。
論文 参考訳(メタデータ) (2023-10-23T08:09:42Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Data augmentation and explainability for bias discovery and mitigation
in deep learning [0.0]
この論文は、ディープニューラルネットワークにおけるバイアスの影響を調査し、モデルパフォーマンスへの影響を減らす方法を提案する。
最初の部分は、データやモデルのバイアスやエラーの潜在的な原因を分類し、記述することから始まり、特に機械学習パイプラインのバイアスに焦点を当てている。
次の章では、予測と制御を正当化し、モデルを改善する手段として、説明可能なAIの分類と方法について概説する。
論文 参考訳(メタデータ) (2023-08-18T11:02:27Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - De-biasing facial detection system using VAE [0.0]
AI/MLベースのシステムのバイアスはユビキタスな問題であり、AI/MLシステムのバイアスは社会に悪影響を及ぼす可能性がある。
提案手法は,基礎となる特徴を学習するのに最適な生成モデルを用いている。
アルゴリズムの助けを借りて、データセットに存在するバイアスを取り除くことができる。
論文 参考訳(メタデータ) (2022-04-16T11:24:37Z) - Intrinsic Bias Identification on Medical Image Datasets [9.054785751150547]
まず、データ固有のバイアス属性を定義し、次いで、医用画像データセットのための新しいバイアス識別フレームワークを提案する。
このフレームワークには、KlotskiNetとBias Discriminant Direction Analysis(bdda)という2つの主要なコンポーネントが含まれている。
3つのデータセットの実験結果から,フレームワークが検出したバイアス特性の有効性が示された。
論文 参考訳(メタデータ) (2022-03-24T06:28:07Z) - Representation Bias in Data: A Survey on Identification and Resolution
Techniques [26.142021257838564]
データ駆動型アルゴリズムは、それらが扱うデータと同程度にしか機能しないが、データセット、特にソーシャルデータはしばしば、マイノリティを適切に表現できない。
データにおける表現バイアスは、歴史的差別から、データ取得と作成方法におけるバイアスのサンプリングまで、さまざまな理由により起こりうる。
本稿では,後日どのように消費されるかに関わらず,表現バイアスをデータセットの特徴として同定し,解決する方法についての文献をレビューする。
論文 参考訳(メタデータ) (2022-03-22T16:30:22Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。