論文の概要: Fair Feature Importance Scores for Interpreting Tree-Based Methods and
Surrogates
- arxiv url: http://arxiv.org/abs/2310.04352v1
- Date: Fri, 6 Oct 2023 16:21:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 15:09:07.225400
- Title: Fair Feature Importance Scores for Interpreting Tree-Based Methods and
Surrogates
- Title(参考訳): 木系手法とサロゲートの解釈のための重要な特徴スコア
- Authors: Camille Olivia Little, Debolina Halder Lina, Genevera I. Allen
- Abstract要約: 本研究では,各特徴が樹木の公平性や偏見にどのように寄与するかを解釈するために,木に対する新たな公正特徴重要度スコアを開発する。
私たちの公正な特徴重要度スコアは、グループバイアスの平均的な減少(または増加)に基づいて定義されます。
- 参考スコア(独自算出の注目度): 4.419843514606336
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Across various sectors such as healthcare, criminal justice, national
security, finance, and technology, large-scale machine learning (ML) and
artificial intelligence (AI) systems are being deployed to make critical
data-driven decisions. Many have asked if we can and should trust these ML
systems to be making these decisions. Two critical components are prerequisites
for trust in ML systems: interpretability, or the ability to understand why the
ML system makes the decisions it does, and fairness, which ensures that ML
systems do not exhibit bias against certain individuals or groups. Both
interpretability and fairness are important and have separately received
abundant attention in the ML literature, but so far, there have been very few
methods developed to directly interpret models with regard to their fairness.
In this paper, we focus on arguably the most popular type of ML interpretation:
feature importance scores. Inspired by the use of decision trees in knowledge
distillation, we propose to leverage trees as interpretable surrogates for
complex black-box ML models. Specifically, we develop a novel fair feature
importance score for trees that can be used to interpret how each feature
contributes to fairness or bias in trees, tree-based ensembles, or tree-based
surrogates of any complex ML system. Like the popular mean decrease in impurity
for trees, our Fair Feature Importance Score is defined based on the mean
decrease (or increase) in group bias. Through simulations as well as real
examples on benchmark fairness datasets, we demonstrate that our Fair Feature
Importance Score offers valid interpretations for both tree-based ensembles and
tree-based surrogates of other ML systems.
- Abstract(参考訳): 医療、刑事司法、国家安全保障、金融、テクノロジー、大規模機械学習(ML)、人工知能(AI)システムなど、さまざまな分野にまたがって、重要なデータ駆動決定を行うためにデプロイされている。
多くの人が、これらの決定を下すためにこれらのMLシステムを信用できるかどうかを尋ねています。
2つの重要なコンポーネントは、MLシステムに対する信頼の前提条件である:解釈可能性、あるいはMLシステムが意思決定を行う理由を理解する能力、そして、MLシステムが特定の個人やグループに対して偏見を示さないことを確実にする公平性である。
解釈可能性と公平性は共に重要であり、ml文献では別々に注目されているが、フェアネスに関してモデルを直接解釈する手法は今のところほとんど開発されていない。
本稿では,最も一般的なML解釈である特徴重要度スコアに着目した。
知識蒸留における決定木の利用に着想を得て,複雑なブラックボックスmlモデルの解釈可能なサロゲートとして木を活用することを提案する。
具体的には,木,木系アンサンブル,木系サロゲートなどの複雑なMLシステムにおいて,各特徴がどのように公平性や偏見に寄与するかを解釈するために,木に対する新たな公正特徴重要度スコアを開発する。
木に対する不純物の平均値の低下と同様に、我々のFair Feature Importance Scoreはグループバイアスの平均値の減少(または増加)に基づいて定義される。
ベンチマークフェアネスデータセットの実例と同様にシミュレーションを通じて、Fair Feature Importance Scoreがツリーベースのアンサンブルと他のMLシステムのツリーベースのサロゲートの両方に対して有効な解釈を提供することを示した。
関連論文リスト
- Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - Interpretability and accessibility of machine learning in selected food
processing, agriculture and health applications [0.0]
MLベースのシステムの解釈可能性の欠如は、これらの強力なアルゴリズムの普及の大きな障害である。
自動モデル設計によるMLアクセシビリティ向上のために、新たなテクニックが登場している。
本稿では,グローバル問題における機械学習の解釈可能性とアクセシビリティ向上に向けた取り組みについて概説する。
論文 参考訳(メタデータ) (2022-11-30T02:44:13Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - The Benchmark Lottery [114.43978017484893]
ベンチマーク宝くじ」は、機械学習ベンチマークプロセスの全体的な脆弱さを記述している。
アルゴリズムの相対的性能は、異なるベンチマークタスクを選択するだけで大幅に変化する可能性がある。
論文 参考訳(メタデータ) (2021-07-14T21:08:30Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems [0.3169089186688223]
本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
論文 参考訳(メタデータ) (2020-09-14T18:15:00Z) - Explainable Empirical Risk Minimization [0.6299766708197883]
機械学習(ML)の手法が成功すると、解釈可能性や説明可能性にますます依存するようになる。
本稿では、情報理論の概念を適用し、ML法による予測の主観的説明可能性のための新しい尺度を開発する。
我々の主な貢献は、主観的説明可能性とリスクを最適にバランスする仮説を学ぶための説明可能な経験的リスク最小化(EERM)原理である。
論文 参考訳(メタデータ) (2020-09-03T07:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。