論文の概要: FAST: An Optimization Framework for Fast Additive Segmentation in
Transparent ML
- arxiv url: http://arxiv.org/abs/2402.12630v1
- Date: Tue, 20 Feb 2024 01:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 17:35:00.743474
- Title: FAST: An Optimization Framework for Fast Additive Segmentation in
Transparent ML
- Title(参考訳): FAST: 透過的MLにおける高速な追加セグメンテーションのための最適化フレームワーク
- Authors: Brian Liu and Rahul Mazumder
- Abstract要約: 高速加法セグメンテーションのための最適化フレームワークであるFASTを提案する。
FASTセグメントは、データセットの各機能に対して、断片的に一定の形状関数を分割して、透過的な加算モデルを生成する。
FASTは加法モデルの計算効率と解釈性を向上することを示す。
- 参考スコア(独自算出の注目度): 19.553278430819308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present FAST, an optimization framework for fast additive segmentation.
FAST segments piecewise constant shape functions for each feature in a dataset
to produce transparent additive models. The framework leverages a novel
optimization procedure to fit these models $\sim$2 orders of magnitude faster
than existing state-of-the-art methods, such as explainable boosting machines
\citep{nori2019interpretml}. We also develop new feature selection algorithms
in the FAST framework to fit parsimonious models that perform well. Through
experiments and case studies, we show that FAST improves the computational
efficiency and interpretability of additive models.
- Abstract(参考訳): 高速加法セグメンテーションのための最適化フレームワークであるFASTを提案する。
FASTセグメントは、データセットの各機能に対して断片的に一定な形状関数を持ち、透過的な加算モデルを生成する。
このフレームワークは、説明可能なブースティングマシン \citep{nori2019interpretml} のような既存の最先端メソッドよりも2桁早くこれらのモデルに適合するために、新しい最適化手順を利用する。
また,並列性のあるモデルに適合する高速フレームワークにおける特徴選択アルゴリズムも開発した。
実験とケーススタディを通して,高速に計算効率と加法モデルの解釈性が向上することを示す。
関連論文リスト
- Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Predictive Modeling through Hyper-Bayesian Optimization [60.586813904500595]
本稿では,モデル選択とBOを統合する新しい手法を提案する。
このアルゴリズムは、モデル空間のBOと関数空間のBOの間を行き来する。
サンプル効率の改善に加えて、ブラックボックス機能に関する情報も出力する。
論文 参考訳(メタデータ) (2023-08-01T04:46:58Z) - Multi-Objective Optimization of Performance and Interpretability of
Tabular Supervised Machine Learning Models [0.9023847175654603]
解釈可能性の定量化には、特徴の空間性、特徴の相互作用の空間性、非単調な特徴効果の空間性という3つの尺度がある。
我々のフレームワークは、非常に競争力のあるモデルや、最先端のXGBoostやExplainable Boosting Machineモデルよりも優れたモデルを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-07-17T00:07:52Z) - Bidirectional Looking with A Novel Double Exponential Moving Average to
Adaptive and Non-adaptive Momentum Optimizers [109.52244418498974]
我々は,新しいtextscAdmeta(textbfADouble指数textbfMov averagtextbfE textbfAdaptiveおよび非適応運動量)フレームワークを提案する。
我々は、textscAdmetaR と textscAdmetaS の2つの実装を提供し、前者は RAdam を、後者は SGDM をベースとしています。
論文 参考訳(メタデータ) (2023-07-02T18:16:06Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Minibatch and Momentum Model-based Methods for Stochastic Non-smooth
Non-convex Optimization [3.4809730725241597]
モデルベース手法に対する2つの重要な拡張を行う。
まず,各イテレーションのモデル関数を近似するために,サンプルの集合を用いる新しいミニバッチを提案する。
第二に、運動量法の成功により、新しい凸モデルを提案する。
論文 参考訳(メタデータ) (2021-06-06T05:31:57Z) - High-Dimensional Bayesian Optimization via Tree-Structured Additive
Models [40.497123136157946]
変数の重複部分集合を持つ低次元関数を合成して高次元目標関数をモデル化する一般化加法モデルを検討する。
私たちの目標は、必要な計算リソースを減らし、より高速なモデル学習を促進することです。
我々は,合成関数と実世界のデータセットに関する様々な実験を通して,本手法の有効性を実証し,議論する。
論文 参考訳(メタデータ) (2020-12-24T03:56:44Z) - Additive Tree-Structured Conditional Parameter Spaces in Bayesian
Optimization: A Novel Covariance Function and a Fast Implementation [34.89735938765757]
木構造関数への加法仮定を一般化し, 改良された試料効率, より広い適用性, 柔軟性を示す。
パラメータ空間の構造情報と加法仮定をBOループに組み込むことで,取得関数を最適化する並列アルゴリズムを開発した。
本稿では,事前学習したVGG16およびRes50モデルのプルーニングとResNet20の検索アクティベーション関数に関する最適化ベンチマーク関数について述べる。
論文 参考訳(メタデータ) (2020-10-06T16:08:58Z) - Additive Tree-Structured Covariance Function for Conditional Parameter
Spaces in Bayesian Optimization [34.89735938765757]
木構造関数への加法的仮定を一般化する。
パラメータ空間の構造情報と加法仮定をBOループに組み込むことで,取得関数を最適化する並列アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-06-21T11:21:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。