論文の概要: Minimising changes to audit when updating decision trees
- arxiv url: http://arxiv.org/abs/2408.16321v1
- Date: Thu, 29 Aug 2024 07:48:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 14:32:51.702191
- Title: Minimising changes to audit when updating decision trees
- Title(参考訳): 決定木更新時の監査変更の最小化
- Authors: Anj Simmons, Scott Barnett, Anupam Chaudhuri, Sankhya Singh, Shangeetha Sivasothy,
- Abstract要約: そこで,本研究では,人間が監査しなければならない木の変化数を最小化しながら,決定木を更新するアルゴリズムを提案する。
目的関数の一部としてツリーの変更数を組み込んだ,欲求的なアプローチでこれを実現する。
- 参考スコア(独自算出の注目度): 1.2722697496405462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretable models are important, but what happens when the model is updated on new training data? We propose an algorithm for updating a decision tree while minimising the number of changes to the tree that a human would need to audit. We achieve this via a greedy approach that incorporates the number of changes to the tree as part of the objective function. We compare our algorithm to existing methods and show that it sits in a sweet spot between final accuracy and number of changes to audit.
- Abstract(参考訳): 解釈可能なモデルは重要だが、新しいトレーニングデータでモデルが更新されたらどうなるのか?
そこで,本研究では,人間が監査しなければならない木の変化数を最小化しながら,決定木を更新するアルゴリズムを提案する。
目的関数の一部としてツリーの変更数を組み込んだ,欲求的なアプローチでこれを実現する。
我々はアルゴリズムを既存の手法と比較し、最終的な精度と監査対象の変更数との間にスイートスポットにあることを示す。
関連論文リスト
- Terminating Differentiable Tree Experts [77.2443883991608]
本稿では,変圧器と表現生成器の組み合わせを用いて木操作を学習するニューラルシンボリック微分木機械を提案する。
まず、専門家の混在を導入することで、各ステップで使用される一連の異なるトランスフォーマーレイヤを取り除きます。
また,モデルが自動生成するステップ数を選択するための新しい終端アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-02T08:45:38Z) - Learning accurate and interpretable decision trees [27.203303726977616]
我々は、同じドメインから繰り返しデータにアクセスして決定木学習アルゴリズムを設計するためのアプローチを開発する。
本研究では,ベイズ決定木学習における事前パラメータのチューニングの複雑さについて検討し,その結果を決定木回帰に拡張する。
また、学習した決定木の解釈可能性について検討し、決定木を用いた説明可能性と精度のトレードオフを最適化するためのデータ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-24T20:10:10Z) - Tree Prompting: Efficient Task Adaptation without Fine-Tuning [112.71020326388029]
Tree Promptingはプロンプトの決定ツリーを構築し、複数のLMコールをリンクしてタスクを解決する。
分類データセットの実験により、Tree Promptingは競合するメソッドよりも精度が向上し、微調整と競合することが示された。
論文 参考訳(メタデータ) (2023-10-21T15:18:22Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Robust Change Detection Based on Neural Descriptor Fields [53.111397800478294]
我々は、部分的に重なり合う観測結果とノイズのある局所化結果に頑健なオブジェクトレベルのオンライン変化検出手法を開発した。
形状符号の類似性を利用して物体を連想させ, 局所的な物体近傍の空間配置を比較することにより, 観測重複や局所雑音に対する頑健性を示す。
論文 参考訳(メタデータ) (2022-08-01T17:45:36Z) - Chow-Liu++: Optimal Prediction-Centric Learning of Tree Ising Models [30.62276301751904]
我々は、Chow-Liuアルゴリズムの要素とツリーメートル法を組み合わせた新しいアルゴリズムを提案する。
我々のアルゴリズムは不特定性や敵の腐敗をモデル化するのに堅牢である。
論文 参考訳(メタデータ) (2021-06-07T21:09:29Z) - An Approach to Evaluating Learning Algorithms for Decision Trees [3.7798600249187295]
低あるいは未知の学習能力アルゴリズムは、生成したソフトウェアモデルを信頼できない。
決定木に対する学習アルゴリズム(学習能力)を評価するための,新しいオラクル中心のアプローチを提案する。
論文 参考訳(メタデータ) (2020-10-26T15:36:59Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z) - The Max-Cut Decision Tree: Improving on the Accuracy and Running Time of
Decision Trees [0.0]
Max-Cut決定木は、分類決定木構築の標準的なベースラインモデル(正確にはCART Gini)に新しい修正を加えている。
実験の結果,このノードベースの局所化PCAは分類を劇的に改善すると同時に,ベースライン決定木に比べて計算時間を著しく短縮できることがわかった。
CIFAR-100の例では、CPU時間を94%削減しつつ、49%の精度向上を実現している。
論文 参考訳(メタデータ) (2020-06-25T00:47:21Z) - The Right Tool for the Job: Matching Model and Instance Complexities [62.95183777679024]
NLPモデルが大きくなればなるほど、訓練されたモデルを実行するには、金銭的・環境的なコストを発生させる重要な計算資源が必要である。
我々は、推論中、早期(かつ高速)の"exit"を可能にする文脈表現微調整の修正を提案する。
3つのテキスト分類データセットと2つの自然言語推論ベンチマークの2つのタスクで、5つの異なるデータセットに対して提案した修正を検証した。
論文 参考訳(メタデータ) (2020-04-16T04:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。