論文の概要: How Interpretable and Trustworthy are GAMs?
- arxiv url: http://arxiv.org/abs/2006.06466v2
- Date: Mon, 7 Jun 2021 02:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 10:01:39.819801
- Title: How Interpretable and Trustworthy are GAMs?
- Title(参考訳): GAMはどのように解釈可能か?
- Authors: Chun-Hao Chang, Sarah Tan, Ben Lengerich, Anna Goldenberg, Rich
Caruana
- Abstract要約: 一般化加法モデル(GAM)は、解釈可能な機械学習の主要なモデルクラスとなっている。
本稿では,実データとシミュレーションデータを用いて,様々なGAMアルゴリズムを定量的に定性的に検討する。
特徴頻度の高いGAMは,データ中のパターンを見逃し,稀なサブ集団に対して不公平であることがわかった。
- 参考スコア(独自算出の注目度): 20.683150732032693
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized additive models (GAMs) have become a leading modelclass for
interpretable machine learning. However, there are many algorithms for training
GAMs, and these can learn different or even contradictory models, while being
equally accurate. Which GAM should we trust? In this paper, we quantitatively
and qualitatively investigate a variety of GAM algorithms on real and simulated
datasets. We find that GAMs with high feature sparsity (only using afew
variables to make predictions) can miss patterns in the data and be unfair to
rare subpopulations. Our results suggest that inductive bias plays a crucial
role in what interpretable models learn and that tree-based GAMs represent the
best balance of sparsity, fidelity and accuracy and thus appear to be the most
trustworthy GAM.
- Abstract(参考訳): 一般化加法モデル(GAM)は、解釈可能な機械学習の主要なモデルクラスとなっている。
しかし、GAMのトレーニングには多くのアルゴリズムがあり、同じ精度で異なるモデルや矛盾するモデルを学ぶことができる。
どのGAMを信頼すべきだろうか?
本稿では,実データとシミュレーションデータを用いたGAMアルゴリズムを定量的に定性的に検討する。
特徴のスパース(afew変数のみを使用して予測を行う)の高いガンは、データのパターンを見逃し、まれなサブポピュレーションに不公平であることが分かりました。
以上の結果から,インダクティブバイアスは解釈可能なモデルが学習する上で重要な役割を担っており,木ベースのガンはスパース性,忠実性,正確さのバランスが最良であり,したがって最も信頼できるガンであることが示唆された。
関連論文リスト
- GAMformer: In-Context Learning for Generalized Additive Models [53.08263343627232]
本稿では,1つの前方パスにおけるGAMの形状関数を推定するために,文脈内学習を利用した最初の手法であるGAMformerを紹介する。
実験の結果,GAMformerは様々な分類ベンチマークにおいて,他の主要なGAMと同等に動作することがわかった。
論文 参考訳(メタデータ) (2024-10-06T17:28:20Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Gaussian Process Probes (GPP) for Uncertainty-Aware Probing [61.91898698128994]
モデルによって表現される概念に関する不確実性を探索し、測定するための統一的でシンプルなフレームワークを導入する。
実験の結果,(1)ごく少数の例でも,モデルの概念表現を探索し,(2)認識の不確実性(プローブがどの程度確実か)と解離不確実性(モデルがファジィか)を正確に測定し,(3)これらの不確実性尺度と古典的手法を用いて分布データの検出を行うことができた。
論文 参考訳(メタデータ) (2023-05-29T17:00:16Z) - VisFIS: Visual Feature Importance Supervision with
Right-for-the-Right-Reason Objectives [84.48039784446166]
モデルFI監督は、VQAモデルの精度と、Right-to-the-Right-Reasonメトリクスの性能を有意義に向上させることができることを示す。
我々の最高のパフォーマンス手法であるVisual Feature Importance Supervision (VisFIS)は、ベンチマークVQAデータセットで強いベースラインを上回ります。
説明が妥当で忠実な場合には予測がより正確になる。
論文 参考訳(メタデータ) (2022-06-22T17:02:01Z) - GAM(L)A: An econometric model for interpretable Machine Learning [0.0]
本稿では,GAMLA(GAMLA)とGAMA(GAMA)を紹介する。
GAM(L)A)はパラメトリック関数と非パラメトリック関数を組み合わせて、依存変数と説明変数の間の線形性と非線型性を正確に捉える。
本稿では,GAM(L)Aの回帰と分類問題に対する予測性能と解釈可能性について述べる。
論文 参考訳(メタデータ) (2022-03-17T09:09:44Z) - Graph Robustness Benchmark: Benchmarking the Adversarial Robustness of
Graph Machine Learning [24.500868045285287]
グラフに対する敵対的な攻撃は、グラフ機械学習(GML)モデルの堅牢性にとって大きな脅威となっている。
グラフロバストネスベンチマーク(GRB)を用いて,GMLモデルの対向ロバスト性に対する拡張性,統一性,モジュール性,再現性を備えた評価を行う。
論文 参考訳(メタデータ) (2021-11-08T07:55:13Z) - NODE-GAM: Neural Generalized Additive Model for Interpretable Deep
Learning [16.15084484295732]
一般化付加モデル(GAM)は、リスクの高いドメインで長い歴史を持つ。
ニューラルGAM(NODE-GAM)とニューラルGA$2$M(NODE-GA$2$M)を提案する。
我々は,提案モデルが他の非解釈モデルと同等の精度で,大規模データセット上での他のGAMよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-03T06:20:18Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。