論文の概要: Efficient Decision Trees for Tensor Regressions
- arxiv url: http://arxiv.org/abs/2408.01926v1
- Date: Sun, 4 Aug 2024 04:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 17:51:14.423850
- Title: Efficient Decision Trees for Tensor Regressions
- Title(参考訳): テンソル回帰のための効率的な決定木
- Authors: Hengrui Luo, Akira Horiguchi, Li Ma,
- Abstract要約: まず,入力変数がテンソルであるスカラー・アウトプット回帰ツリーモデルを提案し,スカラー・オン・テンソル問題に対処する。
我々はスカラー・オン・テンソル木を効率的に適合させるための高速ランダム化および決定論的アルゴリズムを考案・実装した。
我々は加法木アンサンブルアプローチを用いてテンソル・オン・テンソル問題に拡張する。
- 参考スコア(独自算出の注目度): 4.801385345133849
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We proposed the tensor-input tree (TT) method for scalar-on-tensor and tensor-on-tensor regression problems. We first address scalar-on-tensor problem by proposing scalar-output regression tree models whose input variable are tensors (i.e., multi-way arrays). We devised and implemented fast randomized and deterministic algorithms for efficient fitting of scalar-on-tensor trees, making TT competitive against tensor-input GP models. Based on scalar-on-tensor tree models, we extend our method to tensor-on-tensor problems using additive tree ensemble approaches. Theoretical justification and extensive experiments on real and synthetic datasets are provided to illustrate the performance of TT.
- Abstract(参考訳): 我々はスカラー・オン・テンソル回帰問題とテンソル・オン・テンソル回帰問題に対するテンソル・インプット・ツリー(TT)法を提案した。
まず,入力変数がテンソルであるスカラー・アウトプット・レグレッションツリーモデル(マルチウェイアレイ)を提案する。
我々はスカラー・オン・テンソル・ツリーの効率的な適合のための高速ランダム化および決定論的アルゴリズムを考案し,実装し,TTがテンソル・インプットGPモデルと競合することを示した。
スカラー・オン・テンソル木モデルに基づいて,加法木アンサンブル法を用いてテンソル・オン・テンソル問題に拡張する。
TTの性能を示すために, 実・合成データセットに関する理論的正当化と広範な実験を行った。
関連論文リスト
- Computational and Statistical Guarantees for Tensor-on-Tensor Regression with Tensor Train Decomposition [27.29463801531576]
TTに基づくToT回帰モデルの理論的およびアルゴリズム的側面について検討する。
制約付き誤差境界に対する解を効率的に見つけるための2つのアルゴリズムを提案する。
我々はIHTとRGDの両方の線形収束速度を確立する。
論文 参考訳(メタデータ) (2024-06-10T03:51:38Z) - Factor Augmented Tensor-on-Tensor Neural Networks [3.0040661953201475]
本稿では、テンソル因子モデルとディープニューラルネットワークを融合したFATTNN(Facter Augmented-on-Tensor Neural Network)を提案する。
提案アルゴリズムは,予測精度を大幅に向上し,計算時間を大幅に短縮することを示す。
論文 参考訳(メタデータ) (2024-05-30T01:56:49Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Optimizing Orthogonalized Tensor Deflation via Random Tensor Theory [5.124256074746721]
本稿では、ランダムノイズテンソルから相関成分を持つ低ランク信号テンソルを復元する問題に取り組む。
非直交成分はテンソルデフレレーション機構を変化させ、効率的に回復するのを防ぐことができる。
デフレレーション機構で導入されたパラメータを最適化することにより、効率的なテンソルデフレレーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-11T22:23:27Z) - Decomposable Sparse Tensor on Tensor Regression [1.370633147306388]
テンソル回帰のスパースローランクテンソルを考えると、予測子 $mathcalX$ とレスポンス $mathcalY$ はどちらも高次元テンソルである。
本稿では,契約部と生成部から構成されるステージワイド探索に基づく高速解を提案する。
論文 参考訳(メタデータ) (2022-12-09T18:16:41Z) - Lassoed Tree Boosting [53.56229983630983]
有界断面変動のカドラー関数の大きな非パラメトリック空間において,早期に停止するn-1/4$ L2の収束速度を持つ勾配向上木アルゴリズムを証明した。
我々の収束証明は、ネストしたドンスカー類の経験的損失最小化子による早期停止に関する新しい一般定理に基づいている。
論文 参考訳(メタデータ) (2022-05-22T00:34:41Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - When Random Tensors meet Random Matrices [50.568841545067144]
本稿では,ガウス雑音を伴う非対称次数-$d$スパイクテンソルモデルについて検討する。
検討したモデルの解析は、等価なスパイクされた対称テクシットブロック-ワイドランダム行列の解析に起因していることを示す。
論文 参考訳(メタデータ) (2021-12-23T04:05:01Z) - Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation [18.438177637687357]
本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-13T06:50:37Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。