論文の概要: An experiment on the mechanisms of racial bias in ML-based credit
scoring in Brazil
- arxiv url: http://arxiv.org/abs/2011.09865v3
- Date: Thu, 16 Dec 2021 00:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 01:09:44.641582
- Title: An experiment on the mechanisms of racial bias in ML-based credit
scoring in Brazil
- Title(参考訳): ブラジルにおけるmlベースクレジットスコアリングにおける人種バイアスのメカニズムに関する実験
- Authors: Ramon Vilarino, Renato Vicente
- Abstract要約: 実データを用いた実験的なクレジットスコアリングモデルについて検討する。
私たちは、保護された属性にアクセスすることなく、位置情報の使用が人種的偏見をいかに引き起こすかを実証します。
私たちの知る限りでは、ブラジルにおけるMLベースの信用スコアリングにおいて、アルゴリズムによる人種的偏見が最初に記録されたケースである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We dissect an experimental credit scoring model developed with real data and
demonstrate - without access to protected attributes - how the use of location
information introduces racial bias. We analyze the tree gradient boosting model
with the aid of a game-theoretic inspired machine learning explainability
technique, counterfactual experiments and Brazilian census data. By exposing
algorithmic racial bias explaining the trained machine learning model inner
mechanisms, this experiment comprises an interesting artifact to aid the
endeavor of theoretical understanding of the emergence of racial bias in
machine learning systems. Without access to individuals' racial categories, we
show how classification parity measures using geographically defined groups
could carry information about model racial bias. The experiment testifies to
the need for methods and language that do not presuppose access to protected
attributes when auditing ML models, the importance of considering regional
specifics when addressing racial issues, and the central role of census data in
the AI research community. To the best of our knowledge, this is the first
documented case of algorithmic racial bias in ML-based credit scoring in
Brazil, the country with the second largest Black population in the world.
- Abstract(参考訳): 実データを用いて開発した実験的なクレジットスコアリングモデルを分析し、保護された属性にアクセスせずに、位置情報がどのように人種バイアスをもたらすかを実証する。
ゲーム理論にインスパイアされた機械学習の説明可能性技術,反ファクト実験,ブラジルの国勢調査データを用いて,木勾配向上モデルの解析を行った。
この実験は、訓練された機械学習モデルの内部メカニズムを説明するアルゴリズムによる人種バイアスを公開することにより、機械学習システムにおける人種バイアスの出現に関する理論的理解の取り組みを支援する興味深い成果物を含む。
個体の人種カテゴリにアクセスできずに,地理的に定義されたグループを用いた分類パリティ対策が,モデル人種バイアスに関する情報を担っていることを示す。
この実験は、MLモデルを監査する際に保護属性へのアクセスを前提としない方法や言語の必要性、人種問題に対処する際の地域特化を考慮することの重要性、AI研究コミュニティにおける国勢調査データの中心的な役割を実証する。
私たちの知る限りでは、世界第2位の黒人人口を抱えるブラジルのmlベースの信用スコアにおいて、アルゴリズムによる人種差別バイアスが記録されているのはこれが初めてです。
関連論文リスト
- Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - Effectiveness of Debiasing Techniques: An Indigenous Qualitative
Analysis [14.287758028119786]
言語モデルの測定とデバイアスのための現在の技術は、米国の人種的偏見に対して歪められている。
局所的な知識と理解は、偏見のないアルゴリズムを保証するために組み込まれなければならない。
論文 参考訳(メタデータ) (2023-04-17T22:25:25Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal effect of racial bias in data and machine learning algorithms on
user persuasiveness & discriminatory decision making: An Empirical Study [1.713291434132985]
言語データとモデルは、民族、宗教、ジェンダー、社会経済など、様々な種類の偏見を示している。
この研究の動機は、AIシステムがデータから偏見を排除し、説明できない差別的な結果を生み出す方法を研究することである。
この論文は、不平等なシステム設計による顧客の信頼性の低下に起因した損害のギャップを埋めるものである。
論文 参考訳(メタデータ) (2022-01-22T08:26:09Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Using Noisy Self-Reports to Predict Twitter User Demographics [17.288865276460527]
本稿では,Twitterのプロフィールから人種・民族の自己申告を識別する手法を提案する。
自動監視に固有の誤りにもかかわらず、金の標準自己報告調査データに基づいて、優れた性能のモデルを作成する。
論文 参考訳(メタデータ) (2020-05-01T22:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。