論文の概要: Detection and Evaluation of bias-inducing Features in Machine learning
- arxiv url: http://arxiv.org/abs/2310.12805v1
- Date: Thu, 19 Oct 2023 15:01:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:48:04.960548
- Title: Detection and Evaluation of bias-inducing Features in Machine learning
- Title(参考訳): 機械学習におけるバイアス誘発特徴の検出と評価
- Authors: Moses Openja, Gabriel Laberge, Foutse Khomh
- Abstract要約: 機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
- 参考スコア(独自算出の注目度): 14.045499740240823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cause-to-effect analysis can help us decompose all the likely causes of a
problem, such as an undesirable business situation or unintended harm to the
individual(s). This implies that we can identify how the problems are
inherited, rank the causes to help prioritize fixes, simplify a complex problem
and visualize them. In the context of machine learning (ML), one can use
cause-to-effect analysis to understand the reason for the biased behavior of
the system. For example, we can examine the root causes of biases by checking
each feature for a potential cause of bias in the model. To approach this, one
can apply small changes to a given feature or a pair of features in the data,
following some guidelines and observing how it impacts the decision made by the
model (i.e., model prediction). Therefore, we can use cause-to-effect analysis
to identify the potential bias-inducing features, even when these features are
originally are unknown. This is important since most current methods require a
pre-identification of sensitive features for bias assessment and can actually
miss other relevant bias-inducing features, which is why systematic
identification of such features is necessary. Moreover, it often occurs that to
achieve an equitable outcome, one has to take into account sensitive features
in the model decision. Therefore, it should be up to the domain experts to
decide based on their knowledge of the context of a decision whether bias
induced by specific features is acceptable or not. In this study, we propose an
approach for systematically identifying all bias-inducing features of a model
to help support the decision-making of domain experts. We evaluated our
technique using four well-known datasets to showcase how our contribution can
help spearhead the standard procedure when developing, testing, maintaining,
and deploying fair/equitable machine learning systems.
- Abstract(参考訳): 原因から効果への分析は、望ましくないビジネス状況や個人に対する意図しない損害など、問題の起こりうるすべての原因を分解するのに役立ちます。
これにより、問題の継承方法を特定し、修正の優先順位付けを支援し、複雑な問題を単純化し、視覚化することができます。
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
例えば、モデルのバイアスの原因となる可能性のある各機能をチェックすることで、バイアスの根本原因を調べることができる。
これにアプローチするために、ある機能やデータ内の2つの機能に小さな変更を適用し、いくつかのガイドラインに従い、それがモデルによる決定(すなわちモデル予測)に与える影響を観察することができる。
したがって,これらの特徴が元々不明である場合でも,要因から効果への分析を用いてバイアスを誘発する可能性のある特徴を同定することができる。
バイアスアセスメントにはセンシティブな特徴の事前識別が必要であり、他の関連するバイアス誘発特徴を見逃す可能性があるため、このような特徴の体系的な識別が必要である。
さらに、公平な結果を達成するためには、モデル決定において繊細な特徴を考慮する必要があることもしばしば起こる。
したがって、特定の特徴によって引き起こされるバイアスが許容されるか否かの判断の文脈に関する知識に基づいて決定するのは、ドメインの専門家次第である。
本研究では,モデルのバイアス誘発特性をすべて体系的に同定し,ドメインエキスパートの意思決定を支援する手法を提案する。
4つのよく知られたデータセットを使用して、当社のテクニックを評価し、公正で平等な機械学習システムの開発、テスト、保守、デプロイにおいて、私たちのコントリビューションが標準手順の先駆けとなることを示す。
関連論文リスト
- Feature Responsiveness Scores: Model-Agnostic Explanations for Recourse [7.730963708373791]
消費者保護規則は、有害な判断を受けた消費者に「原則的理由」のリストを提供することを義務付けている。
実際には、貸し手や雇用主は、特徴帰属法から上位の特徴を返却することで、主な理由を特定できる。
本研究は,標準的な帰属手法が,無言の理由を強調することによって,個人を誤解させる可能性があることを示す。
応答性に基づいて特徴をスコアリングすることで,これらの問題に対処することを提案する。
論文 参考訳(メタデータ) (2024-10-29T23:37:49Z) - Detecting and Identifying Selection Structure in Sequential Data [53.24493902162797]
我々は,音楽のシーケンスなどの実践的な状況において,潜在目的に基づくデータポイントの選択的包摂が一般的である,と論じる。
選択構造はパラメトリックな仮定や介入実験なしで識別可能であることを示す。
また、他の種類の依存関係と同様に、選択構造を検知し、識別するための証明可能な正当性アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-29T20:56:34Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Causal Discovery with Language Models as Imperfect Experts [119.22928856942292]
専門知識を用いて因果グラフの同定を改善する方法について検討する。
整合性に基づく専門家の知識を改良するための戦略を提案する。
本稿では,不完全な専門家として大規模言語モデルを用いる実データを用いたケーススタディについて報告する。
論文 参考訳(メタデータ) (2023-07-05T16:01:38Z) - Quantifying Feature Contributions to Overall Disparity Using Information
Theory [24.61791450920249]
機械学習アルゴリズムがバイアス決定を行う場合、不一致の原因を理解して、なぜバイアスが存在するのかを説明するのに役立つ。
正確な意思決定メカニズムがアクセスできない場合、各特徴の観察された相違点に対する「潜在的」貢献はどのようなものか?
入力に介入できない場合、最終決定と個々の特徴の両方に存在する保護属性に関する「冗長」統計的依存を定量化する。
論文 参考訳(メタデータ) (2022-06-16T21:27:22Z) - Trying to Outrun Causality with Machine Learning: Limitations of Model
Explainability Techniques for Identifying Predictive Variables [7.106986689736828]
機械学習のアルゴリズムは、見た目ほど柔軟性がなく、データの根底にある因果構造に驚くほど敏感であることを示す。
我々は、重要な変数のデータを探索したい研究者のために、いくつかの代替のレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-02-20T17:48:54Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Information Theoretic Measures for Fairness-aware Feature Selection [27.06618125828978]
我々は,特徴の精度と識別的影響に関する情報理論に基づく,公平性を考慮した特徴選択のためのフレームワークを開発する。
具体的には、この機能が正確性や非差別的判断にどのように影響するかを定量化する、各機能に対する公平性ユーティリティスコアを設計することを目的としています。
論文 参考訳(メタデータ) (2021-06-01T20:11:54Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。