論文の概要: Fair Feature Importance Scores for Interpreting Tree-Based Methods and
Surrogates
- arxiv url: http://arxiv.org/abs/2310.04352v1
- Date: Fri, 6 Oct 2023 16:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 15:09:07.225400
- Title: Fair Feature Importance Scores for Interpreting Tree-Based Methods and
Surrogates
- Title(参考訳): 木系手法とサロゲートの解釈のための重要な特徴スコア
- Authors: Camille Olivia Little, Debolina Halder Lina, Genevera I. Allen
- Abstract要約: 本研究では,各特徴が樹木の公平性や偏見にどのように寄与するかを解釈するために,木に対する新たな公正特徴重要度スコアを開発する。
私たちの公正な特徴重要度スコアは、グループバイアスの平均的な減少(または増加)に基づいて定義されます。
- 参考スコア(独自算出の注目度): 4.419843514606336
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Across various sectors such as healthcare, criminal justice, national
security, finance, and technology, large-scale machine learning (ML) and
artificial intelligence (AI) systems are being deployed to make critical
data-driven decisions. Many have asked if we can and should trust these ML
systems to be making these decisions. Two critical components are prerequisites
for trust in ML systems: interpretability, or the ability to understand why the
ML system makes the decisions it does, and fairness, which ensures that ML
systems do not exhibit bias against certain individuals or groups. Both
interpretability and fairness are important and have separately received
abundant attention in the ML literature, but so far, there have been very few
methods developed to directly interpret models with regard to their fairness.
In this paper, we focus on arguably the most popular type of ML interpretation:
feature importance scores. Inspired by the use of decision trees in knowledge
distillation, we propose to leverage trees as interpretable surrogates for
complex black-box ML models. Specifically, we develop a novel fair feature
importance score for trees that can be used to interpret how each feature
contributes to fairness or bias in trees, tree-based ensembles, or tree-based
surrogates of any complex ML system. Like the popular mean decrease in impurity
for trees, our Fair Feature Importance Score is defined based on the mean
decrease (or increase) in group bias. Through simulations as well as real
examples on benchmark fairness datasets, we demonstrate that our Fair Feature
Importance Score offers valid interpretations for both tree-based ensembles and
tree-based surrogates of other ML systems.
- Abstract(参考訳): 医療、刑事司法、国家安全保障、金融、テクノロジー、大規模機械学習(ML)、人工知能(AI)システムなど、さまざまな分野にまたがって、重要なデータ駆動決定を行うためにデプロイされている。
多くの人が、これらの決定を下すためにこれらのMLシステムを信用できるかどうかを尋ねています。
2つの重要なコンポーネントは、MLシステムに対する信頼の前提条件である:解釈可能性、あるいはMLシステムが意思決定を行う理由を理解する能力、そして、MLシステムが特定の個人やグループに対して偏見を示さないことを確実にする公平性である。
解釈可能性と公平性は共に重要であり、ml文献では別々に注目されているが、フェアネスに関してモデルを直接解釈する手法は今のところほとんど開発されていない。
本稿では,最も一般的なML解釈である特徴重要度スコアに着目した。
知識蒸留における決定木の利用に着想を得て,複雑なブラックボックスmlモデルの解釈可能なサロゲートとして木を活用することを提案する。
具体的には,木,木系アンサンブル,木系サロゲートなどの複雑なMLシステムにおいて,各特徴がどのように公平性や偏見に寄与するかを解釈するために,木に対する新たな公正特徴重要度スコアを開発する。
木に対する不純物の平均値の低下と同様に、我々のFair Feature Importance Scoreはグループバイアスの平均値の減少(または増加)に基づいて定義される。
ベンチマークフェアネスデータセットの実例と同様にシミュレーションを通じて、Fair Feature Importance Scoreがツリーベースのアンサンブルと他のMLシステムのツリーベースのサロゲートの両方に対して有効な解釈を提供することを示した。
関連論文リスト
- CLOMO: Counterfactual Logical Modification with Large Language Models [113.72984199026094]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
生成モデルのカウンターファクトの能力を効果的に評価するために,革新的な評価指標であるLogicAware Counterfactual Scoreを提案する。
分析の結果,提案手法は人間の好みとよく一致していることがわかった。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate
Decision Stumps [49.97564931094598]
複雑なMLモデルの振る舞いをユーザフレンドリに要約するビジュアル分析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Interpretability and accessibility of machine learning in selected food
processing, agriculture and health applications [0.0]
MLベースのシステムの解釈可能性の欠如は、これらの強力なアルゴリズムの普及の大きな障害である。
自動モデル設計によるMLアクセシビリティ向上のために、新たなテクニックが登場している。
本稿では,グローバル問題における機械学習の解釈可能性とアクセシビリティ向上に向けた取り組みについて概説する。
論文 参考訳(メタデータ) (2022-11-30T02:44:13Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The Need for Interpretable Features: Motivation and Taxonomy [69.07189753428553]
我々は、「解釈可能な特徴」という用語は、機械学習の説明の有用性に影響を与える機能の全範囲を捉えるのに十分な具体的あるいは詳細ではないと主張している。
本稿では,(1)解釈可能な機能空間と呼ぶもの,あるいはドメインの専門家が現実の行動を取る上で有用な機能の現状に,より注意を払わなければならない,という3つの重要な教訓を論じる。
論文 参考訳(メタデータ) (2022-02-23T19:19:14Z) - The Benchmark Lottery [114.43978017484893]
ベンチマーク宝くじ」は、機械学習ベンチマークプロセスの全体的な脆弱さを記述している。
アルゴリズムの相対的性能は、異なるベンチマークタスクを選択するだけで大幅に変化する可能性がある。
論文 参考訳(メタデータ) (2021-07-14T21:08:30Z) - The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems [0.3169089186688223]
本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
論文 参考訳(メタデータ) (2020-09-14T18:15:00Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。