論文の概要: Interpretable Machine Learning based on Functional ANOVA Framework:
Algorithms and Comparisons
- arxiv url: http://arxiv.org/abs/2305.15670v1
- Date: Thu, 25 May 2023 02:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:54:01.333147
- Title: Interpretable Machine Learning based on Functional ANOVA Framework:
Algorithms and Comparisons
- Title(参考訳): 関数型ANOVAフレームワークに基づく解釈可能な機械学習:アルゴリズムと比較
- Authors: Linwei Hu, Vijayan N. Nair, Agus Sudjianto, Aijun Zhang, and Jie Chen
- Abstract要約: 機械学習(ML)の初期は、最高の予測性能を達成するための複雑なアルゴリズムの開発に重点が置かれていた。
近年、研究者は予測性能の小さな向上に挑戦し、本質的に解釈可能なアルゴリズムを開発した。
本稿では,ESMなどの木を用いたGAMI-Lin-Tという新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.10422407200807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the early days of machine learning (ML), the emphasis was on developing
complex algorithms to achieve best predictive performance. To understand and
explain the model results, one had to rely on post hoc explainability
techniques, which are known to have limitations. Recently, with the recognition
that interpretability is just as important, researchers are compromising on
small increases in predictive performance to develop algorithms that are
inherently interpretable. While doing so, the ML community has rediscovered the
use of low-order functional ANOVA (fANOVA) models that have been known in the
statistical literature for some time. This paper starts with a description of
challenges with post hoc explainability and reviews the fANOVA framework with a
focus on main effects and second-order interactions. This is followed by an
overview of two recently developed techniques: Explainable Boosting Machines or
EBM (Lou et al., 2013) and GAMI-Net (Yang et al., 2021b). The paper proposes a
new algorithm, called GAMI-Lin-T, that also uses trees like EBM, but it does
linear fits instead of piecewise constants within the partitions. There are
many other differences, including the development of a new interaction
filtering algorithm. Finally, the paper uses simulated and real datasets to
compare selected ML algorithms. The results show that GAMI-Lin-T and GAMI-Net
have comparable performances, and both are generally better than EBM.
- Abstract(参考訳): 機械学習(ML)の初期は、最高の予測性能を達成するための複雑なアルゴリズムの開発に重点が置かれていた。
モデル結果を理解し説明するには、制限があることが知られているポストホックな説明可能性技術に頼る必要があった。
近年、解釈可能性も同様に重要であると認識されているため、研究者は本質的に解釈可能なアルゴリズムを開発するために、予測性能のわずかな増加を論じている。
その間、MLコミュニティは統計学で知られている低次機能ANOVA(fANOVA)モデルの使用を再発見した。
本稿では、ポストホックな説明可能性による課題の説明から始め、主要な効果と二階相互作用に焦点を当てたfANOVAフレームワークをレビューする。
以下は、最近開発された2つの技術の概要である Explainable Boosting Machines または EBM (Lou et al., 2013) と GAMI-Net (Yang et al., 2021b) の概要である。
この論文は、ebmのような木も利用するgami-lin-tと呼ばれる新しいアルゴリズムを提案している。
他にも、新しいインタラクションフィルタリングアルゴリズムの開発など、多くの違いがある。
最後に、シミュレーションと実データを用いて選択したMLアルゴリズムを比較する。
その結果,GAMI-Lin-T と GAMI-Net は同等の性能を示し,両者とも EBM よりも優れていた。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Energy-based learning algorithms for analog computing: a comparative
study [2.0937431058291933]
エネルギーベースの学習アルゴリズムは、最近アナログハードウェアとの互換性のため、関心が高まっている。
我々は、コントラスト学習(CL)、平衡伝播(EP)、結合学習(CpL)の7つの学習アルゴリズムを比較した。
負の摂動は正の摂動よりも優れており,その中心となるEPの変形を最良性能のアルゴリズムとして強調する。
論文 参考訳(メタデータ) (2023-12-22T22:49:58Z) - Performance Evaluation and Comparison of a New Regression Algorithm [4.125187280299247]
新たに提案した回帰アルゴリズムの性能を,従来の4つの機械学習アルゴリズムと比較した。
GitHubリポジトリにソースコードを提供したので、読者は結果の複製を自由にできます。
論文 参考訳(メタデータ) (2023-06-15T13:01:16Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Using Model-Based Trees with Boosting to Fit Low-Order Functional ANOVA
Models [5.131758478675364]
低次関数型ANOVAモデルは、本質的に解釈可能な機械学習の目的のもと、機械学習(ML)コミュニティで再発見された。
我々は,EMMに類似する新しいアルゴリズムであるGAMI-Treeを提案する。
我々は、シミュレーションと実データを用いて、GAMI-Treeの性能と解釈可能性をEMMとGAMI-Netと比較する。
論文 参考訳(メタデータ) (2022-07-14T14:23:14Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Dual Optimization for Kolmogorov Model Learning Using Enhanced Gradient
Descent [8.714458129632158]
コルモゴロフモデル(コルモゴロフモデル、英: Kolmogorov model、KM)は、確率変数の集合の基本的な確率構造を学ぶための解釈可能で予測可能な表現手法である。
正規化双対最適化と拡張勾配降下法(GD)を併用した計算スケーラブルなKM学習アルゴリズムを提案する。
提案したKM学習アルゴリズムを用いた論理的関係マイニングの精度は80%以上である。
論文 参考訳(メタデータ) (2021-07-11T10:33:02Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Surrogate Locally-Interpretable Models with Supervised Machine Learning
Algorithms [8.949704905866888]
近年,従来の統計的手法よりも予測性能が優れているため,機械学習アルゴリズムが普及している。
主な焦点は解釈可能性であり、結果として得られるサロゲートモデルは、合理的に優れた予測性能を持つ。
論文 参考訳(メタデータ) (2020-07-28T23:46:16Z) - MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical
Models [96.1052289276254]
この研究は、人気のあるDual Block-Coordinate Ascent原則に基づく新しいMAP-solverを導入している。
驚いたことに、性能の低い解法に小さな変更を加えることで、既存の解法を大きなマージンで大幅に上回る新しい解法MPLP++を導出します。
論文 参考訳(メタデータ) (2020-04-16T16:20:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。