論文の概要: Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making
- arxiv url: http://arxiv.org/abs/2309.00805v1
- Date: Sat, 2 Sep 2023 03:06:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 01:07:32.393204
- Title: Fairness Implications of Heterogeneous Treatment Effect Estimation with
Machine Learning Methods in Policy-making
- Title(参考訳): 政策立案における機械学習手法による異種処理効果推定の公平性
- Authors: Patrick Rehill and Nicholas Biddle
- Abstract要約: 予測機械学習の標準的なAIフェアネスアプローチは、すべての因果機械学習アプリケーションに適していないと我々は主張する。
政策決定は、通常、因果的機械学習モデルが間接的な力しか持たないような共同決定である、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Causal machine learning methods which flexibly generate heterogeneous
treatment effect estimates could be very useful tools for governments trying to
make and implement policy. However, as the critical artificial intelligence
literature has shown, governments must be very careful of unintended
consequences when using machine learning models. One way to try and protect
against unintended bad outcomes is with AI Fairness methods which seek to
create machine learning models where sensitive variables like race or gender do
not influence outcomes. In this paper we argue that standard AI Fairness
approaches developed for predictive machine learning are not suitable for all
causal machine learning applications because causal machine learning generally
(at least so far) uses modelling to inform a human who is the ultimate
decision-maker while AI Fairness approaches assume a model that is making
decisions directly. We define these scenarios as indirect and direct
decision-making respectively and suggest that policy-making is best seen as a
joint decision where the causal machine learning model usually only has
indirect power. We lay out a definition of fairness for this scenario - a model
that provides the information a decision-maker needs to accurately make a value
judgement about just policy outcomes - and argue that the complexity of causal
machine learning models can make this difficult to achieve. The solution here
is not traditional AI Fairness adjustments, but careful modelling and awareness
of some of the decision-making biases that these methods might encourage which
we describe.
- Abstract(参考訳): 不均一な処理効果の推定を柔軟に生成する因果機械学習は、政策の作成と実施を試みる政府にとって非常に有用なツールである。
しかし、重要な人工知能の文献が示すように、政府は機械学習モデルを使用する際に意図しない結果に非常に注意しなければならない。
意図しない悪い結果から守ろうとする1つの方法は、人種や性別のようなセンシティブな変数が結果に影響しない機械学習モデルを作成しようとするAI Fairnessメソッドである。
本稿では、予測機械学習のために開発された標準的なaiフェアネスアプローチは、すべての因果的機械学習アプリケーションには適さないと主張する。因果的機械学習は、一般的に(少なくとも今のところは)モデリングを使用して、究極の意思決定者である人間に通知するが、aiフェアネスアプローチは直接意思決定を行うモデルである。
これらのシナリオを,それぞれ間接的かつ直接的な意思決定として定義し,因果機械学習モデルが間接的な力しか持たないような共同決定として政策決定が最善であることを示す。
このシナリオ - 意思決定者が政策結果のみについて正確に価値判断をする必要がある情報を提供するモデル - に対して公平性を定義し、因果機械学習モデルの複雑さがこれを達成しにくくする、と論じています。
ここでの解決策は、従来のaiフェアネス調整ではなく、これらの方法が記述するであろう意思決定バイアスを注意深くモデル化し、認識することです。
関連論文リスト
- Transparency challenges in policy evaluation with causal machine learning -- improving usability and accountability [0.0]
モデルがどのように見積を行うかを理解するには、グローバルに解釈可能な方法はない。
因果機械学習モデルが公正な方法で機能しているかどうかを理解するのは難しい。
本稿では,透明性の問題が公共政策評価アプリケーションにおける因果的機械学習の課題である理由を考察する。
論文 参考訳(メタデータ) (2023-10-20T02:48:29Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Physics-Inspired Interpretability Of Machine Learning Models [0.0]
機械学習モデルによる意思決定を説明する能力は、AIの普及に最も大きなハードルのひとつだ。
本研究では,エネルギー景観分野の手法にインスパイアされた入力データの特徴を同定する手法を提案する。
論文 参考訳(メタデータ) (2023-04-05T11:35:17Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Randomized Classifiers vs Human Decision-Makers: Trustworthy AI May Have
to Act Randomly and Society Seems to Accept This [0.8889304968879161]
我々は、人的決定に似て、人工エージェントの判断は必然的に道徳的な原則に根ざすべきであると感じている。
しかし、意思決定者が真に倫理的(倫理的理論に基づく)かつ公正(公平性の概念による)な決定を行うことができるのは、決定を根拠とするすべての関連する要因に関する完全な情報が意思決定時に利用可能である場合のみである。
論文 参考訳(メタデータ) (2021-11-15T05:39:02Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Do the Machine Learning Models on a Crowd Sourced Platform Exhibit Bias?
An Empirical Study on Model Fairness [7.673007415383724]
5つの異なるタスクに使用したKaggleから、40の上位モデルのベンチマークを作成しました。
これらのモデルに7つの緩和手法を適用し、公正性、緩和結果、および性能への影響を分析した。
論文 参考訳(メタデータ) (2020-05-21T23:35:53Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - A Hierarchy of Limitations in Machine Learning [0.0]
本稿では,社会に応用された機械学習におけるモデルの概念的,手続き的,統計的制限の包括的,構造化された概要を論じる。
モデラー自身は、記述された階層を使って、可能な障害点を特定し、それらに対処する方法を考えることができます。
機械学習モデルの消費者は、機械学習を適用するかどうか、場所、方法に関する決定に直面したときに、何を問うべきかを知ることができる。
論文 参考訳(メタデータ) (2020-02-12T19:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。