論文の概要: Detection and Evaluation of bias-inducing Features in Machine learning
- arxiv url: http://arxiv.org/abs/2310.12805v1
- Date: Thu, 19 Oct 2023 15:01:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:48:04.960548
- Title: Detection and Evaluation of bias-inducing Features in Machine learning
- Title(参考訳): 機械学習におけるバイアス誘発特徴の検出と評価
- Authors: Moses Openja, Gabriel Laberge, Foutse Khomh
- Abstract要約: 機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
- 参考スコア(独自算出の注目度): 14.045499740240823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cause-to-effect analysis can help us decompose all the likely causes of a
problem, such as an undesirable business situation or unintended harm to the
individual(s). This implies that we can identify how the problems are
inherited, rank the causes to help prioritize fixes, simplify a complex problem
and visualize them. In the context of machine learning (ML), one can use
cause-to-effect analysis to understand the reason for the biased behavior of
the system. For example, we can examine the root causes of biases by checking
each feature for a potential cause of bias in the model. To approach this, one
can apply small changes to a given feature or a pair of features in the data,
following some guidelines and observing how it impacts the decision made by the
model (i.e., model prediction). Therefore, we can use cause-to-effect analysis
to identify the potential bias-inducing features, even when these features are
originally are unknown. This is important since most current methods require a
pre-identification of sensitive features for bias assessment and can actually
miss other relevant bias-inducing features, which is why systematic
identification of such features is necessary. Moreover, it often occurs that to
achieve an equitable outcome, one has to take into account sensitive features
in the model decision. Therefore, it should be up to the domain experts to
decide based on their knowledge of the context of a decision whether bias
induced by specific features is acceptable or not. In this study, we propose an
approach for systematically identifying all bias-inducing features of a model
to help support the decision-making of domain experts. We evaluated our
technique using four well-known datasets to showcase how our contribution can
help spearhead the standard procedure when developing, testing, maintaining,
and deploying fair/equitable machine learning systems.
- Abstract(参考訳): 原因から効果への分析は、望ましくないビジネス状況や個人に対する意図しない損害など、問題の起こりうるすべての原因を分解するのに役立ちます。
これにより、問題の継承方法を特定し、修正の優先順位付けを支援し、複雑な問題を単純化し、視覚化することができます。
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
例えば、モデルのバイアスの原因となる可能性のある各機能をチェックすることで、バイアスの根本原因を調べることができる。
これにアプローチするために、ある機能やデータ内の2つの機能に小さな変更を適用し、いくつかのガイドラインに従い、それがモデルによる決定(すなわちモデル予測)に与える影響を観察することができる。
したがって,これらの特徴が元々不明である場合でも,要因から効果への分析を用いてバイアスを誘発する可能性のある特徴を同定することができる。
バイアスアセスメントにはセンシティブな特徴の事前識別が必要であり、他の関連するバイアス誘発特徴を見逃す可能性があるため、このような特徴の体系的な識別が必要である。
さらに、公平な結果を達成するためには、モデル決定において繊細な特徴を考慮する必要があることもしばしば起こる。
したがって、特定の特徴によって引き起こされるバイアスが許容されるか否かの判断の文脈に関する知識に基づいて決定するのは、ドメインの専門家次第である。
本研究では,モデルのバイアス誘発特性をすべて体系的に同定し,ドメインエキスパートの意思決定を支援する手法を提案する。
4つのよく知られたデータセットを使用して、当社のテクニックを評価し、公正で平等な機械学習システムの開発、テスト、保守、デプロイにおいて、私たちのコントリビューションが標準手順の先駆けとなることを示す。
関連論文リスト
- Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Quantifying Feature Contributions to Overall Disparity Using Information
Theory [24.61791450920249]
機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
正確な意思決定メカニズムがアクセスできない場合、各特徴の観察された相違点に対する「潜在的」貢献はどのようなものか?
入力に介入できない場合、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」統計的依存を定量化する。
論文 参考訳(メタデータ) (2022-06-16T21:27:22Z) - Trying to Outrun Causality with Machine Learning: Limitations of Model
Explainability Techniques for Identifying Predictive Variables [7.106986689736828]
機械学習のアルゴリズムは、見た目ほど柔軟性がなく、データの根底にある因果構造に驚くほど敏感であることを示す。
我々は、重要な変数のデータを探索したい研究者のために、いくつかの代替のレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-02-20T17:48:54Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [89.01584399789951]
歴史的専門家の意思決定を豊富な情報源として利用することを検討します。
観察されたラベルだけで学習する制限を緩和するために活用できることを示しています。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Understanding Failures of Deep Networks via Robust Feature Extraction [44.204907883776045]
本研究では,視覚的特徴を識別し,不在や不在がパフォーマンスの低下を招き,失敗を特徴づけ,説明することを目的とした手法を紹介し,検討する。
我々は、分離されたロバストモデルの表現を活用して、解釈可能な特徴を抽出し、これらの特徴を利用して障害モードを特定します。
論文 参考訳(メタデータ) (2020-12-03T08:33:29Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。