論文の概要: Trees and Forests in Nuclear Physics
- arxiv url: http://arxiv.org/abs/2002.10290v2
- Date: Thu, 7 May 2020 12:55:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:46:56.498561
- Title: Trees and Forests in Nuclear Physics
- Title(参考訳): 核物理学における樹木と森林
- Authors: Marco Carnini and Alessandro Pastore
- Abstract要約: 決定木を用いて特徴工学を行うことにより,古典的な液滴核質量モデルの精度を向上させる方法を示す。
本手法をDuflo-Zukerモデルに適用し,その単純さにもかかわらず,決定木は限られた数の自由パラメータを用いて核質量の記述を改善することができることを示した。
- 参考スコア(独自算出の注目度): 77.34726150561087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a simple introduction to the decision tree algorithm using some
examples from nuclear physics. We show how to improve the accuracy of the
classical liquid drop nuclear mass model by performing Feature Engineering with
a decision tree. Finally, we apply the method to the Duflo-Zuker model showing
that, despite their simplicity, decision trees are capable of improving the
description of nuclear masses using a limited number of free parameters.
- Abstract(参考訳): 本稿では,核物理学の例を用いて決定木アルゴリズムの簡単な紹介を行う。
決定木を用いて特徴工学を行うことにより,古典的な液滴核質量モデルの精度を向上させる方法を示す。
最後に, この手法をDuflo-Zukerモデルに適用し, その単純さにもかかわらず, 決定木は限られた数の自由パラメータを用いて核質量の記述を改善することができることを示した。
関連論文リスト
- An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Solving the nuclear pairing model with neural network quantum states [58.720142291102135]
本稿では,職業数形式論における核多体問題の解法としてモンテカルロ法を提案する。
リコンフィグレーションアルゴリズムのメモリ効率向上版を開発し,ハミルトニアンの期待値を最小限に抑えてネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-11-09T00:18:01Z) - Decision Concept Lattice vs. Decision Trees and Random Forests [4.898744396854312]
我々は、新しい教師付き機械学習モデルを提案することによって、決定木、それらのアンサンブル、FCAの考え方を融合する。
具体的には、まず、決定木に基づく概念格子の一部を構成する状態時間アルゴリズムを提案する。
次に,分類問題と回帰問題の両方を解決するための概念格子に基づく予測スキームについて述べる。
論文 参考訳(メタデータ) (2021-06-01T10:45:35Z) - Deep Neural Network as an alternative to Boosted Decision Trees for PID [0.0]
Roe et alで提案された粒子の二元分類法を再現し、改善する。
(2005)論文「粒子識別のためのニューラルネットワークの代替としてのブースト決定木」
現代の技術を用いて、精度とトレーニング時間の両方において、元の結果をどのように改善できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T23:32:42Z) - Decision Machines: Interpreting Decision Tree as a Model Combination
Method [0.0]
我々は二分決定木をコンパクトに表現する。
この定式化を連続関数で近似する。
そこで本研究では,いくつかの学習手法を統合するための選択予測手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T12:23:24Z) - Dive into Decision Trees and Forests: A Theoretical Demonstration [0.0]
決定木は"divide-and-conquer"の戦略を使用して、入力機能とラベル間の依存性に関する複雑な問題を小さなものに分割します。
近年, 計算広告, 推薦システム, 情報検索などの性能が大幅に向上している。
論文 参考訳(メタデータ) (2021-01-20T16:47:59Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Rectified Decision Trees: Exploring the Landscape of Interpretable and
Effective Machine Learning [66.01622034708319]
我々は,reDT(rerectified decision tree)と呼ばれる知識蒸留に基づく決定木拡張を提案する。
我々は,ソフトラベルを用いたトレーニングを可能にする標準決定木の分割基準と終了条件を拡張した。
次に,教師モデルから抽出したソフトラベルに基づいて,新しいジャックニフェ法を用いてReDTを訓練する。
論文 参考訳(メタデータ) (2020-08-21T10:45:25Z) - MurTree: Optimal Classification Trees via Dynamic Programming and Search [61.817059565926336]
動的プログラミングと探索に基づいて最適な分類木を学習するための新しいアルゴリズムを提案する。
当社のアプローチでは,最先端技術が必要とする時間のごく一部しか使用せず,数万のインスタンスでデータセットを処理することが可能です。
論文 参考訳(メタデータ) (2020-07-24T17:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。