論文の概要: Efficient Probabilistic Tensor Networks
- arxiv url: http://arxiv.org/abs/2510.00382v1
- Date: Wed, 01 Oct 2025 00:52:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.3106
- Title: Efficient Probabilistic Tensor Networks
- Title(参考訳): 効率的な確率テンソルネットワーク
- Authors: Marawan Gamal Abdel Hameed, Guillaume Rabusseau,
- Abstract要約: 数値的に安定なPTNを効率的に学習するための概念的簡便なアプローチを提案する。
提案手法は時間と空間の複雑さを大幅に改善し,Mデータセットにおける生成モデリングのレイテンシを10倍に短縮することを示す。
私たちのコードは、NIST.com/marawangamal/ptnで公開されています。
- 参考スコア(独自算出の注目度): 7.8039567241309244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor networks (TNs) enable compact representations of large tensors through shared parameters. Their use in probabilistic modeling is particularly appealing, as probabilistic tensor networks (PTNs) allow for tractable computation of marginals. However, existing approaches for learning parameters of PTNs are either computationally demanding and not fully compatible with automatic differentiation frameworks, or numerically unstable. In this work, we propose a conceptually simple approach for learning PTNs efficiently, that is numerically stable. We show our method provides significant improvements in time and space complexity, achieving 10x reduction in latency for generative modeling on the MNIST dataset. Furthermore, our approach enables learning of distributions with 10x more variables than previous approaches when applied to a variety of density estimation benchmarks. Our code is publicly available at github.com/marawangamal/ptn.
- Abstract(参考訳): テンソルネットワーク(TN)は、共有パラメータによる大きなテンソルのコンパクト表現を可能にする。
確率的テンソルネットワーク(PTN)は、限界の抽出可能な計算を可能にするため、確率的モデリングにおけるそれらの使用は特に魅力的である。
しかし、PTNの学習パラメータに対する既存のアプローチは、計算的に要求され、自動微分フレームワークと完全に互換性がないか、数値的に不安定である。
本研究では,PTNを効率的に学習するための概念的にシンプルな手法を提案する。
提案手法は時間と空間の複雑さを大幅に改善し,MNISTデータセットにおける生成モデリングのレイテンシを10倍に削減することを示す。
さらに, 種々の密度推定ベンチマークに適用した場合, 従来の手法よりも10倍多くの変数を持つ分布の学習が可能となる。
私たちのコードはgithub.com/marawangamal/ptn.comで公開されています。
関連論文リスト
- Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - Approximate Bayesian Inference via Bitstring Representations [15.754246455963907]
本稿では,表現によって生成される量子化された離散パラメータ空間において確率的推論を実行することを提案する。
この研究は、確率計算の離散近似を利用して、スケーラブルで解釈可能な機械学習を前進させる。
論文 参考訳(メタデータ) (2025-08-19T08:08:17Z) - Interpretable Bayesian Tensor Network Kernel Machines with Automatic Rank and Feature Selection [5.240890834159944]
ネットワークカーネルマシンは、パラメータを低ランクのTNとして表現することでモデル学習を高速化する。
モデル複雑性を推定するために,TN因子の階層的先行性を用いた完全確率的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-15T09:37:49Z) - CF-GO-Net: A Universal Distribution Learner via Characteristic Function Networks with Graph Optimizers [8.816637789605174]
本稿では,分布に直接対応する確率的記述子である特徴関数(CF)を用いる手法を提案する。
確率密度関数 (pdf) とは異なり、特徴関数は常に存在するだけでなく、さらなる自由度を与える。
提案手法では,訓練済みのオートエンコーダなどの事前学習モデルを使用することで,特徴空間で直接学習することができる。
論文 参考訳(メタデータ) (2024-09-19T09:33:12Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Deep Efficient Continuous Manifold Learning for Time Series Modeling [11.876985348588477]
対称正定値行列はコンピュータビジョン、信号処理、医療画像解析において研究されている。
本稿では,リーマン多様体とコレスキー空間の間の微分同相写像を利用する枠組みを提案する。
時系列データの動的モデリングのために,多様体常微分方程式とゲートリカレントニューラルネットワークを体系的に統合した連続多様体学習法を提案する。
論文 参考訳(メタデータ) (2021-12-03T01:38:38Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。