論文の概要: Cannikin's Law in Tensor Modeling: A Rank Study for Entanglement and
Separability in Tensor Complexity and Model Capacity
- arxiv url: http://arxiv.org/abs/2204.07760v1
- Date: Sat, 16 Apr 2022 09:14:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 17:04:39.484055
- Title: Cannikin's Law in Tensor Modeling: A Rank Study for Entanglement and
Separability in Tensor Complexity and Model Capacity
- Title(参考訳): テンソルモデリングにおけるcannikinの法則:テンソルの複雑性とモデルの容量における絡み合いと分離性に関するランク研究
- Authors: Tong Yang
- Abstract要約: 本研究では,一般的なテンソルモデルのモデリング能力を評価するための適切な基準を明らかにする。
そこで本論文では,カンニキンのテンソルモデリングの法則について議論するために,分離性問題を提案する。
- 参考スコア(独自算出の注目度): 8.553988557950351
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study clarifies the proper criteria to assess the modeling capacity of a
general tensor model. The work analyze the problem based on the study of tensor
ranks, which is not a well-defined quantity for higher order tensors. To
process, the author introduces the separability issue to discuss the Cannikin's
law of tensor modeling. Interestingly, a connection between entanglement
studied in information theory and tensor analysis is established, shedding new
light on the theoretical understanding for modeling capacity problems.
- Abstract(参考訳): 本研究は、一般テンソルモデルのモデリング能力を評価するための適切な基準を明らかにする。
この研究はテンソル階数の研究に基づいて問題を解析し、これは高次テンソルの明確な量ではない。
そこで筆者は, 分離可能性問題を取り上げ, カンニキンのテンソルモデリングの法則について論じる。
興味深いことに、情報理論とテンソル解析における絡み合いの関連が確立され、モデリング能力問題に対する理論的理解に新たな光を当てる。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間シーケンスデータを表現するために設計された深部力学モデルの新しいファミリを紹介する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
発振システム、ビデオ、実世界の状態シーケンス(MuJoCo)の実験は、学習可能なエネルギーベース以前のODEが既存のものより優れていることを示している。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Provable Tensor Completion with Graph Information [49.08648842312456]
本稿では,動的グラフ正規化テンソル完備問題の解法として,新しいモデル,理論,アルゴリズムを提案する。
我々はテンソルの低ランクおよび類似度構造を同時に捉える包括的モデルを開発する。
理論の観点からは、提案したグラフの滑らか度正規化と重み付きテンソル核ノルムとの整合性を示す。
論文 参考訳(メタデータ) (2023-10-04T02:55:10Z) - Quantized Fourier and Polynomial Features for more Expressive Tensor
Network Models [9.18287948559108]
モデル重みを過度にパラメータ化されたテンソルネットワークに制約することで,特徴量に存在するテンソル構造を利用する。
同じ数のモデルパラメータに対して、結果の量子化モデルは、その非量子化モデルとは対照的に、VC次元に高いバウンドを持つことを示す。
論文 参考訳(メタデータ) (2023-09-11T13:18:19Z) - TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials [4.169915659794567]
我々は、革新的なO(3)等価メッセージパッシングニューラルネットワークアーキテクチャであるNetを紹介する。
テンソル原子埋め込みを用いることで、機能混合は行列積演算により単純化される。
ポテンシャルエネルギーと力の上のベクトルとテンソル分子量の正確な予測が可能である。
論文 参考訳(メタデータ) (2023-06-10T16:41:18Z) - Knowledge Distillation Performs Partial Variance Reduction [93.6365393721122]
知識蒸留は'学生'モデルの性能を高めるための一般的な手法である。
知識蒸留(KD)の背後にある力学は、まだ完全には理解されていない。
我々は,KDを新しいタイプの分散還元機構として解釈できることを示す。
論文 参考訳(メタデータ) (2023-05-27T21:25:55Z) - Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models [88.63781315038824]
本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T10:42:26Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Tensor-networks for High-order Polynomial Approximation: A Many-body
Physics Perspective [8.553988557950351]
我々は多体物理学の観点から高次近似の問題を解析する。
記述型モデルのキャパシティキャプチャとタスク複雑性における絡み合いエントロピーのパワーを実証する。
論文 参考訳(メタデータ) (2022-04-16T08:11:36Z) - Boundary theories of critical matchgate tensor networks [59.433172590351234]
AdS/CFT対応の重要な側面は、双曲格子上のテンソルネットワークモデルの観点から捉えることができる。
マッチゲート制約を満たすテンソルに対しては、これらは以前、乱れた境界状態を生成することが示されている。
これらのハミルトニアンは、解析的な玩具モデルによって捉えられたマルチスケールの準周期対称性を示す。
論文 参考訳(メタデータ) (2021-10-06T18:00:03Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。