論文の概要: GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints
- arxiv url: http://arxiv.org/abs/2204.09123v1
- Date: Tue, 19 Apr 2022 20:37:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 13:43:25.299473
- Title: GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints
- Title(参考訳): GAM(e) チェンジャーは?
加法モデル制約に基づく解釈可能な機械学習モデルの評価
- Authors: Patrick Zschech, Sven Weinzierl, Nico Hambauer, Sandra Zilker, Mathias
Kraus
- Abstract要約: 本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
- 参考スコア(独自算出の注目度): 5.783415024516947
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The number of information systems (IS) studies dealing with explainable
artificial intelligence (XAI) is currently exploding as the field demands more
transparency about the internal decision logic of machine learning (ML) models.
However, most techniques subsumed under XAI provide post-hoc-analytical
explanations, which have to be considered with caution as they only use
approximations of the underlying ML model. Therefore, our paper investigates a
series of intrinsically interpretable ML models and discusses their suitability
for the IS community. More specifically, our focus is on advanced extensions of
generalized additive models (GAM) in which predictors are modeled independently
in a non-linear way to generate shape functions that can capture arbitrary
patterns but remain fully interpretable. In our study, we evaluate the
prediction qualities of five GAMs as compared to six traditional ML models and
assess their visual outputs for model interpretability. On this basis, we
investigate their merits and limitations and derive design implications for
further improvements.
- Abstract(参考訳): 説明可能な人工知能(XAI)を扱う情報システム(IS)研究の数は、機械学習(ML)モデルの内部決定ロジックについて、フィールドがより透明性を必要とするため、現在爆発している。
しかし、xai に従属するほとんどの手法は解析後説明を提供しており、基礎となるmlモデルの近似のみを使用するため注意が必要である。
そこで本研究では,本質的に解釈可能なMLモデルについて検討し,ISコミュニティへの適合性について考察する。
より具体的には、任意のパターンをキャプチャできるが完全に解釈可能な形状関数を生成する非線形な方法で予測器を独立にモデル化するGAM(Generalized Additive Model)の拡張に焦点を当てている。
本研究では,従来の6つのMLモデルと比較して,5つのGAMの予測品質を評価し,その視覚的アウトプットをモデル解釈可能性として評価する。
そこで本研究では,そのメリットと限界について検討し,さらなる改善のための設計上の意義を導出する。
関連論文リスト
- Challenging the Performance-Interpretability Trade-off: An Evaluation of Interpretable Machine Learning Models [3.3595341706248876]
一般化加法モデル(GAM)は、完全に解釈可能でありながら、複雑で非線形なパターンをキャプチャするための有望な特性を提供する。
本研究では、20のベンチマークデータセットの収集に基づいて、7つのGAMの予測性能を7つの機械学習モデルと比較した。
論文 参考訳(メタデータ) (2024-09-22T12:58:52Z) - Leveraging Model-based Trees as Interpretable Surrogate Models for Model
Distillation [3.5437916561263694]
代理モデルは、複雑で強力なブラックボックス機械学習モデルを振り返りに解釈する上で重要な役割を果たす。
本稿では,決定規則により特徴空間を解釈可能な領域に分割する代理モデルとしてモデルベースツリーを用いることに焦点を当てる。
4つのモデルベースツリーアルゴリズム(SLIM, GUIDE, MOB, CTree)を比較した。
論文 参考訳(メタデータ) (2023-10-04T19:06:52Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks against Interpretable Models [1.8752655643513647]
XAIツールは、モデル抽出攻撃の脆弱性を増大させる可能性がある。
そこで本研究では,ブラックボックス設定下での解釈可能なモデルに対して,新たなリトレーニング(学習)に基づくモデル抽出攻撃フレームワークを提案する。
AUTOLYCUSは非常に効果的で、最先端の攻撃に比べてクエリが大幅に少ないことが示される。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。