論文の概要: The Tensor as an Informational Resource
- arxiv url: http://arxiv.org/abs/2311.02190v1
- Date: Fri, 3 Nov 2023 18:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 18:55:45.556486
- Title: The Tensor as an Informational Resource
- Title(参考訳): 情報資源としてのテンソル
- Authors: Matthias Christandl
- Abstract要約: テンソル(英: tensor)は、データの保存、計算関係のエンコード、量子絡み合いの表現に使用できる数列である。
テンソル上の情報理論的に構築された事前順序の族を提案し、テンソルを互いに比較し、それらの間の変換の存在を評価する。
- 参考スコア(独自算出の注目度): 1.5410557873153832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A tensor is a multidimensional array of numbers that can be used to store
data, encode a computational relation and represent quantum entanglement. In
this sense a tensor can be viewed as valuable resource whose transformation can
lead to an understanding of structure in data, computational complexity and
quantum information.
In order to facilitate the understanding of this resource, we propose a
family of information-theoretically constructed preorders on tensors, which can
be used to compare tensors with each other and to assess the existence of
transformations between them. The construction places copies of a given tensor
at the edges of a hypergraph and allows transformations at the vertices. A
preorder is then induced by the transformations possible in a given growing
sequence of hypergraphs. The new family of preorders generalises the asymptotic
restriction preorder which Strassen defined in order to study the computational
complexity of matrix multiplication.
We derive general properties of the preorders and their associated asymptotic
notions of tensor rank and view recent results on tensor rank non-additivity,
tensor networks and algebraic complexity in this unifying frame. We hope that
this work will provide a useful vantage point for exploring tensors in applied
mathematics, physics and computer science, but also from a purely mathematical
point of view.
- Abstract(参考訳): テンソル(tensor)は、データを格納し、計算関係をエンコードし、量子の絡み合いを表す多次元数の配列である。
この意味でテンソルは、変換によってデータ、計算複雑性、量子情報の構造の理解につながる貴重な資源と見なすことができる。
このリソースの理解を容易にするために,テンソル上の情報理論的に構築された事前順序の族を提案し,テンソル同士を比較し,それらの間の変換の存在を評価する。
この構成は、与えられたテンソルのコピーをハイパーグラフの端に置き、頂点での変換を可能にする。
事前順序は、与えられた成長するハイパーグラフ列で可能な変換によって誘導される。
新しい事前順序の族は、行列乗算の計算複雑性を研究するためにストラッセンが定義した漸近的制限事前順序を一般化する。
我々は、プレオーダーとそのテンソル階数に関する漸近的概念の一般的性質を導き、この統一フレームにおけるテンソル階数非付加性、テンソルネットワークおよび代数的複雑性に関する最近の結果を見る。
この研究は、応用数学、物理学、計算機科学におけるテンソルの探索に有用であり、純粋に数学的な観点からも役立つことを願っている。
関連論文リスト
- Tensor cumulants for statistical inference on invariant distributions [49.80012009682584]
我々は,PCAが信号の大きさの臨界値で計算的に困難になることを示す。
我々は、与えられた次数の不変量に対して明示的でほぼ直交的な基底を与える新しい対象の集合を定義する。
また、異なるアンサンブルを区別する新しい問題も分析できます。
論文 参考訳(メタデータ) (2024-04-29T14:33:24Z) - An introduction to graphical tensor notation for mechanistic
interpretability [0.0]
テンソル間でどの操作が行われているのかを混乱させるのは容易です。
この文書の前半は表記法を導入し、いくつかの分解に適用する。
後半は、言語モデルを機械的に理解するためのいくつかの基本的なアプローチに適用します。
論文 参考訳(メタデータ) (2024-02-02T02:56:01Z) - Provable Tensor Completion with Graph Information [49.08648842312456]
本稿では,動的グラフ正規化テンソル完備問題の解法として,新しいモデル,理論,アルゴリズムを提案する。
我々はテンソルの低ランクおよび類似度構造を同時に捉える包括的モデルを開発する。
理論の観点からは、提案したグラフの滑らか度正規化と重み付きテンソル核ノルムとの整合性を示す。
論文 参考訳(メタデータ) (2023-10-04T02:55:10Z) - A Gap in the Subrank of Tensors [2.7992435001846827]
テンソルのサブランクは、テンソルがどれだけ「対角化」できるかの尺度である。
我々は、テンソル積の下で大きなパワーを取るとき、サブランクにギャップがあることを証明した。
また、成長率には第2のギャップがあることも証明しています。
論文 参考訳(メタデータ) (2022-12-03T18:38:28Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - Seq2Tens: An Efficient Representation of Sequences by Low-Rank Tensor
Projections [11.580603875423408]
時系列、ビデオ、テキストなどの時系列データは分析が難しい。
この中心にあるのは非可換性(英語版)であり、列の要素を並べ替えることがその意味を完全に変えることができるという意味でである。
このような依存を捉えるために、古典的な数学的対象、テンソル代数を用いる。
論文 参考訳(メタデータ) (2020-06-12T09:24:35Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z) - Quantum Machine Learning Algorithm for Knowledge Graphs [35.149125599812706]
暗黙の知識は、知識グラフから生成されたテンソル表現をモデル化し再構成することによって推測することができる。
本稿では,知識グラフのモデリングを高速化するために,量子資源をどのように活用するかを検討する。
論文 参考訳(メタデータ) (2020-01-04T13:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。