論文の概要: Anomaly Detection with Tensor Networks
- arxiv url: http://arxiv.org/abs/2006.02516v2
- Date: Tue, 16 Jun 2020 18:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:44:40.703626
- Title: Anomaly Detection with Tensor Networks
- Title(参考訳): テンソルネットワークによる異常検出
- Authors: Jinhui Wang, Chase Roberts, Guifre Vidal, Stefan Leichenauer
- Abstract要約: テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
- 参考スコア(独自算出の注目度): 2.3895981099137535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Originating from condensed matter physics, tensor networks are compact
representations of high-dimensional tensors. In this paper, the prowess of
tensor networks is demonstrated on the particular task of one-class anomaly
detection. We exploit the memory and computational efficiency of tensor
networks to learn a linear transformation over a space with dimension
exponential in the number of original features. The linearity of our model
enables us to ensure a tight fit around training instances by penalizing the
model's global tendency to a predict normality via its Frobenius norm---a task
that is infeasible for most deep learning models. Our method outperforms deep
and classical algorithms on tabular datasets and produces competitive results
on image datasets, despite not exploiting the locality of images.
- Abstract(参考訳): 凝縮物質物理学に由来するテンソルネットワークは、高次元テンソルのコンパクト表現である。
本稿では,一級異常検出の特定のタスクにおいて,テンソルネットワークの長所を実証する。
テンソルネットワークのメモリと計算効率を利用して、元の特徴数に指数関数的な次元を持つ空間上の線形変換を学習する。
モデルの線形性は,モデルのグローバル傾向をフロベニウス規範を通じて予測正規性にペナルティすることで,トレーニングインスタンスの厳密な適合性を確保することを可能にする。
本手法は,表型データセットにおける深層アルゴリズムや古典的アルゴリズムよりも優れており,画像の局所性を生かしてはいないが,画像データセットの競合結果を生成する。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Provable Tensor Completion with Graph Information [49.08648842312456]
本稿では,動的グラフ正規化テンソル完備問題の解法として,新しいモデル,理論,アルゴリズムを提案する。
我々はテンソルの低ランクおよび類似度構造を同時に捉える包括的モデルを開発する。
理論の観点からは、提案したグラフの滑らか度正規化と重み付きテンソル核ノルムとの整合性を示す。
論文 参考訳(メタデータ) (2023-10-04T02:55:10Z) - Theory on variational high-dimensional tensor networks [2.0307382542339485]
ランダムな高次元ネットワーク状態の創発的統計特性とテンソルネットワークのトレーニング可能性について検討する。
変動高次元ネットワークが大域的損失関数のバレンプラトーに悩まされていることを証明した。
この結果は、将来の理論的研究と実践的応用の道を開くものである。
論文 参考訳(メタデータ) (2023-03-30T15:26:30Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Patch-based medical image segmentation using Quantum Tensor Networks [1.5899411215927988]
テンソルネットワークを用いた教師付き設定で画像分割を定式化する。
鍵となるアイデアは、まず画像パッチのピクセルを指数関数的に高次元の特徴空間に引き上げることである。
提案モデルの性能を3つの2次元および1つの3次元バイオメディカルイメージングデータセットで評価した。
論文 参考訳(メタデータ) (2021-09-15T07:54:05Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Segmenting two-dimensional structures with strided tensor networks [1.952097552284465]
教師付き画像分割のためのテンソルネットワークの新規な定式化を提案する。
提案モデルはバックプロパゲーションを用いてエンドツーエンドでトレーニング可能である。
評価の結果,ストレートテンソルネットワークはcnnモデルに比べて競争性が高いことがわかった。
論文 参考訳(メタデータ) (2021-02-13T11:06:34Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。