論文の概要: A Rectification-Based Approach for Distilling Boosted Trees into Decision Trees
- arxiv url: http://arxiv.org/abs/2510.18615v1
- Date: Tue, 21 Oct 2025 13:14:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.618124
- Title: A Rectification-Based Approach for Distilling Boosted Trees into Decision Trees
- Title(参考訳): 加圧木を決定木に蒸留する法則に基づく方法
- Authors: Gilles Audemard, Sylvie Coste-Marquis, Pierre Marquis, Mehdi Sabiri, Nicolas Szczepanski,
- Abstract要約: 本稿では,予測性能と解釈可能性の観点から許容可能な妥協点を提供するMLモデルを作成することを目的として,増木を決定木に蒸留する新しい手法を提案する。
提案手法は, モデルの再学習による蒸留手法と比較して, 興味深い結果をもたらすことを実証的に示す。
- 参考スコア(独自算出の注目度): 16.793960695255212
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a new approach for distilling boosted trees into decision trees, in the objective of generating an ML model offering an acceptable compromise in terms of predictive performance and interpretability. We explain how the correction approach called rectification can be used to implement such a distillation process. We show empirically that this approach provides interesting results, in comparison with an approach to distillation achieved by retraining the model.
- Abstract(参考訳): 本稿では,予測性能と解釈可能性の観点から許容可能な妥協点を提供するMLモデルを作成することを目的として,増木を決定木に蒸留する新しい手法を提案する。
このような蒸留プロセスを実現するために, 改質法と呼ばれる補正手法をいかに利用することができるかを説明する。
提案手法は, モデルの再学習による蒸留手法と比較して, 興味深い結果をもたらすことを実証的に示す。
関連論文リスト
- Antidistillation Sampling [97.86194163974783]
拡張推論トレースを生成するモデルは、モデル蒸留を容易にするリッチトークンシーケンスを不注意に生成する。
この脆弱性を認識したモデル所有者は、モデル性能を損なうことなく蒸留の有効性を制限するサンプリング戦略を求めることができる。
抗蒸留サンプリングは、モデルの実用性を保ちながら、蒸留に著しく効果の低い推理トレースをレンダリングする。
論文 参考訳(メタデータ) (2025-04-17T17:54:14Z) - A novel gradient-based method for decision trees optimizing arbitrary differential loss functions [2.4861619769660637]
本研究では、任意の微分可微分損失関数を最適化する勾配に基づく決定木を構築する新しい手法を提案する。
本手法の分類・回帰・生存分析への適用性を示す。
この方法の実装は公開されており、研究者や実践者に実用的なツールを提供している。
論文 参考訳(メタデータ) (2025-03-22T20:25:30Z) - Towards Understanding Distilled Reasoning Models: A Representational Approach [6.563993791037387]
我々は、Qwen系列モデルとその微調整された変種についてクロスコーダを訓練する。
この結果から,クロスコーダは自己回帰や検証など,多種多様な推論に対応する特徴を学習できることが示唆された。
論文 参考訳(メタデータ) (2025-03-05T18:40:19Z) - Leveraging Model-based Trees as Interpretable Surrogate Models for Model
Distillation [3.5437916561263694]
代理モデルは、複雑で強力なブラックボックス機械学習モデルを振り返りに解釈する上で重要な役割を果たす。
本稿では,決定規則により特徴空間を解釈可能な領域に分割する代理モデルとしてモデルベースツリーを用いることに焦点を当てる。
4つのモデルベースツリーアルゴリズム(SLIM, GUIDE, MOB, CTree)を比較した。
論文 参考訳(メタデータ) (2023-10-04T19:06:52Z) - Planning with Diffusion for Flexible Behavior Synthesis [125.24438991142573]
我々は、できるだけ多くの軌道最適化パイプラインをモデリング問題に折り畳むことがどう見えるか検討する。
我々の技術的アプローチの核心は、軌道を反復的にデノベーションすることで計画する拡散確率モデルにある。
論文 参考訳(メタデータ) (2022-05-20T07:02:03Z) - Neural-to-Tree Policy Distillation with Policy Improvement Criterion [28.262400646275793]
ブラックボックスモデルに対する洞察を得るための可能な方法は、決定木のような解釈可能なモデルにそれを蒸留することである。
モデル動作を小さなエラーでもクローンする典型的なポリシー蒸留は、データ分散シフトをもたらす可能性がある。
本稿では, 蒸留の目的を挙動クローニングから有効性評価の最大化に転換することで, この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-08-16T05:14:54Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。