論文の概要: Tensor Network Algorithms: a Route Map
- arxiv url: http://arxiv.org/abs/2205.10345v2
- Date: Tue, 24 May 2022 10:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 07:56:58.941674
- Title: Tensor Network Algorithms: a Route Map
- Title(参考訳): テンソルネットワークアルゴリズム:ルートマップ
- Authors: Mari Carmen Ba\~nuls
- Abstract要約: 簡単なレビューでは、基本的なアイデア、最良の確立された方法、そして最も重要なアルゴリズム開発を紹介している。
目標は、テンソルネットワークが提供する多くの可能性だけでなく、最先端のコードを通じてその方法を見つけることを支援することだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor networks provide extremely powerful tools for the study of complex
classical and quantum many-body problems. Over the last two decades, the
increment in the number of techniques and applications has been relentless, and
especially the last ten years have seen an explosion of new ideas and results
that may be overwhelming for the newcomer. This short review introduces the
basic ideas, the best established methods and some of the most significant
algorithmic developments that are expanding the boundaries of the tensor
network potential. The goal is to help the reader not only appreciate the many
possibilities offered by tensor networks, but also find their way through
state-of-the-art codes, their applicability and some avenues of ongoing
progress.
- Abstract(参考訳): テンソルネットワークは、複雑な古典的および量子多体問題の研究に非常に強力なツールを提供する。
過去20年間、技術やアプリケーションの増加は相変わらず続いており、特に過去10年間、新しいアイデアや結果が爆発的に増え、新参者にとって圧倒的なものになるかもしれない。
この短いレビューでは、基本的なアイデア、最良の確立された方法、テンソルネットワークポテンシャルの境界を広げる最も重要なアルゴリズム開発を紹介している。
目標は、テンソルネットワークが提供する多くの可能性だけでなく、最先端のコード、適用性、進行中の進歩のいくつかの方法を通じて、読者の理解を深めることである。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - The Multiple Subnetwork Hypothesis: Enabling Multidomain Learning by
Isolating Task-Specific Subnetworks in Feedforward Neural Networks [0.0]
我々は,未使用の重み付きネットワークがその後のタスクを学習するための方法論とネットワーク表現構造を同定する。
提案手法を用いてトレーニングされたネットワークは,タスクのパフォーマンスを犠牲にすることなく,あるいは破滅的な忘れを伴わずに,複数のタスクを学習できることを示す。
論文 参考訳(メタデータ) (2022-07-18T15:07:13Z) - Theoretical Perspectives on Deep Learning Methods in Inverse Problems [115.93934028666845]
我々は、生成前の先行、訓練されていないニューラルネットワークの先行、および展開アルゴリズムに焦点を当てる。
これらのトピックにおける既存の結果の要約に加えて、現在進行中の課題やオープンな問題も強調する。
論文 参考訳(メタデータ) (2022-06-29T02:37:50Z) - A Practical Guide to the Numerical Implementation of Tensor Networks I:
Contractions, Decompositions and Gauge Freedom [0.0]
本稿では,テンソルネットワークの手法を数値的に実装するために必要な重要なアイデアとスキルについて概説する。
提案するトピックは、DMRG、TEBD、TRG、PEPS、MERAといった多くの一般的なテンソルネットワークアルゴリズムにおいて重要である。
論文 参考訳(メタデータ) (2022-02-04T14:10:09Z) - An Operator Theoretic Perspective on Pruning Deep Neural Networks [2.624902795082451]
我々は、動的システム理論の最近の進歩を利用して、理論上動機付けられたプルーニングアルゴリズムの新しいクラスを定義する。
これらのアルゴリズムは、等級や勾配に基づくプルーニングと等価であることを示す。
論文 参考訳(メタデータ) (2021-10-28T02:33:50Z) - Recent Deep Semi-supervised Learning Approaches and Related Works [0.9790236766474201]
セミ教師付き学習は,ラベルの不足やラベルなしデータの量が多いことをモデルトレーニングに活用する学習手法である。
半教師付き学習環境における深層ニューラルネットワークの利用について,主に考察する。
論文 参考訳(メタデータ) (2021-06-22T03:44:03Z) - A Comprehensive Survey on Community Detection with Deep Learning [93.40332347374712]
コミュニティは、ネットワーク内の他のコミュニティと異なるメンバーの特徴と接続を明らかにする。
この調査は、最先端の手法の様々なカテゴリをカバーする新しい分類法を考案し、提案する。
ディープニューラルネットワーク(Deep Neural Network)は、畳み込みネットワーク(convolutional network)、グラフアテンションネットワーク( graph attention network)、生成的敵ネットワーク(generative adversarial network)、オートエンコーダ(autoencoder)に分けられる。
論文 参考訳(メタデータ) (2021-05-26T14:37:07Z) - Mathematical Models of Overparameterized Neural Networks [25.329225766892126]
我々は,2層ニューラルネットワークの解析に焦点をあて,重要な数学的モデルを説明する。
次に、ディープニューラルネットワークと現在の研究方向を理解するための課題について論じる。
論文 参考訳(メタデータ) (2020-12-27T17:48:31Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。