論文の概要: Learning Tree Structures from Leaves For Particle Decay Reconstruction
- arxiv url: http://arxiv.org/abs/2208.14924v1
- Date: Wed, 31 Aug 2022 15:36:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:59:17.089650
- Title: Learning Tree Structures from Leaves For Particle Decay Reconstruction
- Title(参考訳): 葉から樹構造を学習して粒子崩壊を再現する
- Authors: James Kahn, Ilias Tsaklidis, Oskar Taubert, Lea Reuter, Giulio Dujany,
Tobias Boeckh, Arthur Thaller, Pablo Goldenzweig, Florian Bernlochner, Achim
Streit and Markus G\"otz
- Abstract要約: 本稿では,階層的相互作用を記述したルート木グラフを再構築するためのニューラルネットワークを提案し,その表現をLCAG(Lowest Common Ancestor Generations)行列と呼ぶ。
LCAGを葉の特徴から正確に予測することができ、最大で8ドル、最大で9.2.5%のケースは6ドルまでの葉(含む)と、シミュレーションデータセットで最大10ドルまでのツリーに対して59.7%のケースである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we present a neural approach to reconstructing rooted tree
graphs describing hierarchical interactions, using a novel representation we
term the Lowest Common Ancestor Generations (LCAG) matrix. This compact
formulation is equivalent to the adjacency matrix, but enables learning a
tree's structure from its leaves alone without the prior assumptions required
if using the adjacency matrix directly. Employing the LCAG therefore enables
the first end-to-end trainable solution which learns the hierarchical structure
of varying tree sizes directly, using only the terminal tree leaves to do so.
In the case of high-energy particle physics, a particle decay forms a
hierarchical tree structure of which only the final products can be observed
experimentally, and the large combinatorial space of possible trees makes an
analytic solution intractable. We demonstrate the use of the LCAG as a target
in the task of predicting simulated particle physics decay structures using
both a Transformer encoder and a Neural Relational Inference encoder Graph
Neural Network. With this approach, we are able to correctly predict the LCAG
purely from leaf features for a maximum tree-depth of $8$ in $92.5\%$ of cases
for trees up to $6$ leaves (including) and $59.7\%$ for trees up to $10$ in our
simulated dataset.
- Abstract(参考訳): 本研究では,階層的相互作用を記述したルート木グラフを再構築するためのニューラルネットワークを提案し,その表現をLCAG行列と呼ぶ。
このコンパクトな定式化は、隣接行列と同値であるが、隣接行列を直接使用する場合に必要となる事前仮定なしに、葉のみから木の構造を学ぶことができる。
したがってLCAGを利用することで、終端木葉のみを使用して、様々な木の大きさの階層構造を直接学習する、最初のエンドツーエンドのトレーニング可能なソリューションが可能になる。
高エネルギー粒子物理学の場合、粒子崩壊は、最終生成物のみを実験的に観察できる階層木構造を形成し、可能木の大きな組合せ空間は解析的な解を導出することができる。
本稿では,TransformerエンコーダとNeural Relational Inference Encoder Graph Neural Networkを用いて,シミュレーション粒子物理学の崩壊構造を予測する作業において,LCAGをターゲットとして利用することを示す。
このアプローチで、lcagをリーフ機能から純粋に予測することが可能で、最大で8ドル(約9万5000円)のツリー深度で、最大で6ドル(約6万円)のリーフ(約6万円)と、シミュレーションされたデータセットで10ドルまでのツリーに対して59.7ドル(約9万7000円)のケースを予測できます。
関連論文リスト
- Phylo2Vec: a vector representation for binary trees [0.49478969093606673]
系統樹を模したPhylo2Vecについて紹介する。
系統樹を操作および表現するための統一的なアプローチとして機能する。
概念実証として、Phylo2Vecを用いて5つの実世界のデータセットの最大推定を行う。
論文 参考訳(メタデータ) (2023-04-25T09:54:35Z) - Individualized and Global Feature Attributions for Gradient Boosted
Trees in the Presence of $\ell_2$ Regularization [0.0]
本稿では,プレデコン(PreDecomp)を提案する。プレデコン(PreDecomp,PreDecomp,PreDecomp)は,正規化を$ell$で訓練した場合に,増木に対する新規な個別化特徴属性である。
また、各ツリーのアウトサンプルデータに個々の特徴属性とラベルの内積で定義される、偏りのないグローバルな特徴属性のファミリーであるTreeInnerを提案する。
論文 参考訳(メタデータ) (2022-11-08T17:56:22Z) - A Neural Tangent Kernel Perspective of Infinite Tree Ensembles [8.020742121274417]
本稿では,ソフトツリーの無限アンサンブルの挙動に関する新たな知見を提供する,TNTK(Tree Neural Tangent Kernel)を紹介し,研究する。
本研究は, 樹木の深化によって引き起こされる, 希薄な木構造の影響やTNTKの退化など, いくつかの非自明な性質を見出した。
論文 参考訳(メタデータ) (2021-09-10T16:48:24Z) - Structural Optimization Makes Graph Classification Simpler and Better [5.770986723520119]
モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
論文 参考訳(メタデータ) (2021-09-05T08:54:38Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - Visualizing hierarchies in scRNA-seq data using a density tree-biased
autoencoder [50.591267188664666]
本研究では,高次元scRNA-seqデータから意味のある木構造を同定する手法を提案する。
次に、低次元空間におけるデータのツリー構造を強調する木バイアスオートエンコーダDTAEを紹介する。
論文 参考訳(メタデータ) (2021-02-11T08:48:48Z) - SGA: A Robust Algorithm for Partial Recovery of Tree-Structured
Graphical Models with Noisy Samples [75.32013242448151]
ノードからの観測が独立しているが非識別的に分散ノイズによって破損した場合、Ising Treeモデルの学習を検討する。
Katiyarら。
(2020) は, 正確な木構造は復元できないが, 部分木構造を復元できることを示した。
統計的に堅牢な部分木回復アルゴリズムであるSymmetrized Geometric Averaging(SGA)を提案する。
論文 参考訳(メタデータ) (2021-01-22T01:57:35Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Rethinking Learnable Tree Filter for Generic Feature Transform [71.77463476808585]
Learnable Tree Filterはセマンティックセグメンテーションのためのモデル構造保存関係に対する顕著なアプローチを示す。
幾何学的制約を緩和するために,マルコフ確率場として再構成して解析を行い,学習可能な不定項を導入する。
セマンティックセグメンテーションでは、ベルとホイッスルなしでCityscapesベンチマークでトップパフォーマンス(82.1% mIoU)を達成しています。
論文 参考訳(メタデータ) (2020-12-07T07:16:47Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。