論文の概要: Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments
- arxiv url: http://arxiv.org/abs/2309.01780v1
- Date: Mon, 4 Sep 2023 19:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 17:34:12.147431
- Title: Measuring, Interpreting, and Improving Fairness of Algorithms using
Causal Inference and Randomized Experiments
- Title(参考訳): 因果推論とランダム化実験によるアルゴリズムの公平性の測定・解釈・改善
- Authors: James Enouen and Tianshu Sun and Yan Liu
- Abstract要約: 本稿では,アルゴリズム決定の公平性を測り,解釈し,改善するためのMIIFフレームワークを提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し, 異なる処理, 異なる影響, 経済的価値の同時測定を可能にする。
また、ブラックボックスアルゴリズムの信念を正確に解釈し、蒸留する、説明可能な機械学習モデルを開発した。
- 参考スコア(独自算出の注目度): 8.62694928567939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithm fairness has become a central problem for the broad adoption of
artificial intelligence. Although the past decade has witnessed an explosion of
excellent work studying algorithm biases, achieving fairness in real-world AI
production systems has remained a challenging task. Most existing works fail to
excel in practical applications since either they have conflicting measurement
techniques and/ or heavy assumptions, or require code-access of the production
models, whereas real systems demand an easy-to-implement measurement framework
and a systematic way to correct the detected sources of bias.
In this paper, we leverage recent advances in causal inference and
interpretable machine learning to present an algorithm-agnostic framework
(MIIF) to Measure, Interpret, and Improve the Fairness of an algorithmic
decision. We measure the algorithm bias using randomized experiments, which
enables the simultaneous measurement of disparate treatment, disparate impact,
and economic value. Furthermore, using modern interpretability techniques, we
develop an explainable machine learning model which accurately interprets and
distills the beliefs of a blackbox algorithm. Altogether, these techniques
create a simple and powerful toolset for studying algorithm fairness,
especially for understanding the cost of fairness in practical applications
like e-commerce and targeted advertising, where industry A/B testing is already
abundant.
- Abstract(参考訳): アルゴリズムの公平性は、人工知能を広く採用する上で中心的な問題となっている。
過去10年間、アルゴリズムバイアスを研究する優れた研究が爆発的に増えているが、現実世界のai生産システムにおける公平性を達成することは、依然として困難な課題である。
既存のほとんどの作業は、競合する測定技術と/または重い仮定を持つか、生産モデルのコードアクセスを必要とするため、実用的なアプリケーションでは実行できないが、実際のシステムは、検出されたバイアス源を修正するための簡単な測定フレームワークと体系的な方法を必要としている。
本稿では、因果推論と解釈可能な機械学習の最近の進歩を活用し、アルゴリズム決定の公平性の測定、解釈、改善のためのアルゴリズム非依存フレームワーク(MIIF)を提案する。
ランダム化実験を用いてアルゴリズムバイアスを測定し,異なる処理,異なる影響,経済的価値の同時測定を可能にする。
さらに,最近の解釈可能性手法を用いて,ブラックボックスアルゴリズムの信念を正確に解釈し,蒸留する説明可能な機械学習モデルを開発した。
これらのテクニックは、アルゴリズムの公正性を研究するためのシンプルで強力なツールセット、特に業界A/Bテストがすでに豊富にあるeコマースやターゲット広告といった実用的アプリケーションにおける公正性のコストを理解するためのものだ。
関連論文リスト
- Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Can Ensembling Pre-processing Algorithms Lead to Better Machine Learning
Fairness? [8.679212948810916]
モデルのトレーニング中に暗黙のバイアスを軽減するために、いくつかのフェアネス前処理アルゴリズムが利用可能である。
これらのアルゴリズムはフェアネスの異なる概念を採用しており、しばしばフェアネスと精度の連続的なトレードオフを伴う戦略と矛盾する。
我々は,3つの一般的なフェアネス前処理アルゴリズムを評価し,全てのアルゴリズムをより堅牢な前処理アンサンブルに組み合わせる可能性について検討する。
論文 参考訳(メタデータ) (2022-12-05T21:54:29Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - Coping with Mistreatment in Fair Algorithms [1.2183405753834557]
教師付き学習環境におけるアルゴリズムの公平性を検討し,等価機会指標の分類器最適化の効果を検討する。
このバイアスを軽減するための概念的にシンプルな方法を提案する。
提案手法を厳密に解析し,その効果を示す実世界データセット上で評価する。
論文 参考訳(メタデータ) (2021-02-22T03:26:06Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。