論文の概要: Towards Scalable Meta-Learning of near-optimal Interpretable Models via Synthetic Model Generations
- arxiv url: http://arxiv.org/abs/2511.04000v1
- Date: Thu, 06 Nov 2025 02:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.281259
- Title: Towards Scalable Meta-Learning of near-optimal Interpretable Models via Synthetic Model Generations
- Title(参考訳): 合成モデル生成による準最適解釈モデルのスケーラブルメタラーニングに向けて
- Authors: Kyaw Hpone Myint, Zhe Wu, Alexandre G. R. Day, Giri Iyengar,
- Abstract要約: 決定木は、金融や医療などの高度な分野において、解釈可能性のために広く利用されている。
本研究は,意思決定ツリーのメタ学習を可能にするために,合成事前学習データを生成する,効率的でスケーラブルな手法を提案する。
- 参考スコア(独自算出の注目度): 42.005025885027116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decision trees are widely used in high-stakes fields like finance and healthcare due to their interpretability. This work introduces an efficient, scalable method for generating synthetic pre-training data to enable meta-learning of decision trees. Our approach samples near-optimal decision trees synthetically, creating large-scale, realistic datasets. Using the MetaTree transformer architecture, we demonstrate that this method achieves performance comparable to pre-training on real-world data or with computationally expensive optimal decision trees. This strategy significantly reduces computational costs, enhances data generation flexibility, and paves the way for scalable and efficient meta-learning of interpretable decision tree models.
- Abstract(参考訳): 決定木は、金融や医療などの高度な分野において、解釈可能性のために広く利用されている。
本研究は,意思決定ツリーのメタ学習を可能にするために,合成事前学習データを生成する,効率的でスケーラブルな手法を提案する。
提案手法では, ほぼ最適決定木を合成的に抽出し, 大規模で現実的なデータセットを作成する。
本稿では,MetaTree変換アーキテクチャを用いて,実世界のデータや計算コストの高い最適決定木を用いた事前学習に匹敵する性能を実現することを実証する。
この戦略は計算コストを大幅に削減し、データ生成の柔軟性を高め、解釈可能な決定木モデルのスケーラブルで効率的なメタラーニングの道を開く。
関連論文リスト
- A novel gradient-based method for decision trees optimizing arbitrary differential loss functions [2.4861619769660637]
本研究では、任意の微分可微分損失関数を最適化する勾配に基づく決定木を構築する新しい手法を提案する。
本手法の分類・回帰・生存分析への適用性を示す。
この方法の実装は公開されており、研究者や実践者に実用的なツールを提供している。
論文 参考訳(メタデータ) (2025-03-22T20:25:30Z) - Learning Decision Trees as Amortized Structure Inference [59.65621207449269]
本稿では,予測決定木アンサンブルを学習するためのハイブリッドアモータイズされた構造推論手法を提案する。
提案手法であるDT-GFNは,標準分類ベンチマークにおける最先端決定木やディープラーニング手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-03-10T07:05:07Z) - Zero-Shot Decision Tree Construction via Large Language Models [2.005837558796176]
本稿では,大言語モデル(LLM)を用いた決定木構築アルゴリズムについて,分類・回帰木(CART)の原理に基づくゼロショット方式で紹介する。
提案手法では, 属性の離散化, 確率計算, Giniインデックス計算など, 決定木構築に必要な演算を行う。
論文 参考訳(メタデータ) (2025-01-27T17:48:48Z) - Learning accurate and interpretable tree-based models [27.203303726977616]
我々は、同じドメインからデータに繰り返しアクセスする木に基づく学習アルゴリズムを設計するためのアプローチを開発する。
本稿では,よく使われるエントロピーとジニ不純物に基づく基準を補間するトップダウンアルゴリズムにおいて,ノード分割基準の新しいパラメータ化クラスを提案する。
我々は、ランダムな森林や傾斜した木など、一般的な木に基づくアンサンブルのチューニングに結果を拡張した。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Learning a Decision Tree Algorithm with Transformers [75.96920867382859]
メタ学習によってトレーニングされたトランスフォーマーベースのモデルであるMetaTreeを導入し、強力な決定木を直接生成する。
我々は、多くのデータセットに欲求決定木とグローバルに最適化された決定木の両方を適合させ、MetaTreeを訓練して、強力な一般化性能を実現する木のみを生成する。
論文 参考訳(メタデータ) (2024-02-06T07:40:53Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - Generalized and Scalable Optimal Sparse Decision Trees [56.35541305670828]
様々な目的に対して最適な決定木を生成する手法を提案する。
また,連続変数が存在する場合に最適な結果が得られるスケーラブルなアルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-06-15T19:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。