論文の概要: Explainable Global Fairness Verification of Tree-Based Classifiers
- arxiv url: http://arxiv.org/abs/2209.13179v1
- Date: Tue, 27 Sep 2022 06:34:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 16:35:49.397137
- Title: Explainable Global Fairness Verification of Tree-Based Classifiers
- Title(参考訳): ツリーベース分類器の説明可能なグローバルフェアネス検証
- Authors: Stefano Calzavara, Lorenzo Cazzaro, Claudio Lucchese, Federico
Marcuzzi
- Abstract要約: 本稿では,木質分類器のグローバルフェアネス検証に対する新しいアプローチを提案する。
我々の分析は、従来の命題論理式の集合として表される、公正性の十分な条件を合成する。
- 参考スコア(独自算出の注目度): 7.73137399904667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new approach to the global fairness verification of tree-based
classifiers. Given a tree-based classifier and a set of sensitive features
potentially leading to discrimination, our analysis synthesizes sufficient
conditions for fairness, expressed as a set of traditional propositional logic
formulas, which are readily understandable by human experts. The verified
fairness guarantees are global, in that the formulas predicate over all the
possible inputs of the classifier, rather than just a few specific test
instances. Our analysis is formally proved both sound and complete.
Experimental results on public datasets show that the analysis is precise,
explainable to human experts and efficient enough for practical adoption.
- Abstract(参考訳): 本稿では,木質分類器のグローバルフェアネス検証に対する新しいアプローチを提案する。
木に基づく分類器と識別につながる可能性のある重要な特徴のセットが与えられた場合、本分析は、従来の命題論理式の一式として表現される公正性の十分な条件を合成する。
検証された公正性保証はグローバルであり、式はいくつかの特定のテストインスタンスではなく、分類器のすべての入力を述語する。
私たちの分析は、音と完備の両方が正式に証明されている。
公開データセットでの実験的結果は、分析が正確であり、人間の専門家に説明可能であり、実用的採用に十分な効率性を示している。
関連論文リスト
- Disentangling Representations through Multi-task Learning [0.0]
分類タスクを最適に解決するエージェントにおいて,不整合表現の出現を保証する実験および理論的結果を提供する。
マルチタスク分類を訓練したRNNにおいて,これらの予測を実験的に検証した。
私たちは、トランスフォーマーが特に、そのユニークな世界理解能力を説明するような、無関係な表現に向いていることに気付きました。
論文 参考訳(メタデータ) (2024-07-15T21:32:58Z) - Simple and Interpretable Probabilistic Classifiers for Knowledge Graphs [0.0]
本稿では,単純な信念ネットワークの学習に基づく帰納的アプローチについて述べる。
このようなモデルを(確率的な)公理(あるいは規則)に変換する方法を示す。
論文 参考訳(メタデータ) (2024-07-09T17:05:52Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Synergies between Disentanglement and Sparsity: Generalization and
Identifiability in Multi-Task Learning [79.83792914684985]
我々は,最大スパース基底予測器が不整合表現をもたらす条件を提供する新しい識別可能性の結果を証明した。
この理論的な結果から,両レベル最適化問題に基づくアンタングル表現学習の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-11-26T21:02:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Re-Examining Human Annotations for Interpretable NLP [80.81532239566992]
我々は、Interpretable NLPで広く使われている2つのデータセット上で、クラウドソースのウェブサイトを用いて制御実験を行う。
我々は,異なる資格レベルを満たす人材の募集から得られた注釈結果を比較した。
以上の結果から,アノテーションの品質は労働者の資格に高い影響を受けており,労働者は指示によって特定のアノテーションを提供するように指導することができることがわかった。
論文 参考訳(メタデータ) (2022-04-10T02:27:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - End-to-End Annotator Bias Approximation on Crowdsourced Single-Label
Sentiment Analysis [0.4925222726301579]
感性分析は、多くのアノテータから与えられた主観的なラベルをクラウドソーシングする作業であることが多い。
それぞれのアノテータのアノテーションバイアスがいかにして最先端の手法で正しくモデル化できるかは、まだ完全には分かっていない。
我々の貢献は、正確な神経終末バイアスモデリングと基底真理推定のための説明と改善である。
論文 参考訳(メタデータ) (2021-11-03T16:20:16Z) - Abstracting Fairness: Oracles, Metrics, and Interpretability [21.59432019966861]
我々は,真理の公正さの理解を基盤とした,公正な神託から学べるものについて検討する。
我々の結果は、非常に望ましいが定義されていない分類システムの特性である解釈性(interpretablity)に影響を及ぼす。
論文 参考訳(メタデータ) (2020-04-04T03:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。