論文の概要: Build your own tensor network library: DMRjulia I. Basic library for the
density matrix renormalization group
- arxiv url: http://arxiv.org/abs/2109.03120v1
- Date: Tue, 7 Sep 2021 14:31:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 22:44:24.280199
- Title: Build your own tensor network library: DMRjulia I. Basic library for the
density matrix renormalization group
- Title(参考訳): 独自のテンソルネットワークライブラリを構築する: DMRjulia I. 密度行列再正規化群のための基本ライブラリ
- Authors: Thomas E. Baker and Martin P. Thompson
- Abstract要約: このコードの焦点はテンソルネットワーク計算に関わる基本的な操作である。
このコードは研究に使えるほど高速で、新しいアルゴリズムを作るのに使える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An introduction to the density matrix renormalization group is contained
here, including coding examples. The focus of this code is on basic operations
involved in tensor network computations, and this forms the foundation of the
DMRjulia library. Algorithmic complexity, measurements from the matrix product
state, convergence to the ground state, and other relevant features are also
discussed. The present document covers the implementation of operations for
dense tensors into the Julia language. The code can be used as an educational
tool to understand how tensor network computations are done in the context of
entanglement renormalization or as a template for other codes in low level
languages. A comprehensive Supplemental Material is meant to be a "Numerical
Recipes" style introduction to the core functions and a simple implementation
of them. The code is fast enough to be used in research and can be used to make
new algorithms.
- Abstract(参考訳): 密度行列再正規化群の導入は、符号化例を含む。
このコードの焦点はテンソルネットワーク計算に関する基本的な操作であり、これはdmrjuliaライブラリの基礎となっている。
アルゴリズムの複雑さ、行列積状態からの計測、基底状態への収束、その他の関連する特徴についても論じる。
本文書は、julia言語への密閉テンソルの演算の実装を扱っている。
このコードは、絡み合った再正規化の文脈でテンソルネットワーク計算がどのように行われるかを理解するための教育ツールや、低レベル言語における他のコードのテンプレートとして使用できる。
総合的な補助材料は、コア関数の「数値レシピ」スタイルの導入とそれらの簡単な実装を意図している。
コードは研究に使えるほど高速で、新しいアルゴリズムを作るのに使うことができる。
関連論文リスト
- Distributive Pre-Training of Generative Modeling Using Matrix-Product
States [0.0]
本稿では,基本的なテンソルネットワーク操作,例えば和と圧縮を利用した代替的なトレーニング手法を検討する。
トレーニングアルゴリズムは、製品状態表現におけるすべてのトレーニングデータから構築された重ね合わせ状態を圧縮する。
MNISTデータセット上でアルゴリズムをベンチマークし、新しい画像と分類タスクを生成するための妥当な結果を示す。
論文 参考訳(メタデータ) (2023-06-26T15:46:08Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - CodeRetriever: Unimodal and Bimodal Contrastive Learning [128.06072658302165]
関数レベルのコードセマンティック表現を訓練するために,一様および二様のコントラスト学習を組み合わせたCodeRetrieverモデルを提案する。
ノンモーダルなコントラスト学習のために、文書と関数名に基づいてポジティブなコードペアを構築するためのセマンティックガイド付き手法を設計する。
バイモーダルなコントラスト学習では、コードのドキュメンテーションとインラインコメントを活用して、テキストコードペアを構築します。
論文 参考訳(メタデータ) (2022-01-26T10:54:30Z) - DMRjulia: Tensor recipes for entanglement renormalization computations [0.0]
DMRjuliaライブラリに含まれる機能の詳細はここにある。
本稿では,高密度テンソルに対するテンソルネットワークライブラリにおける関数の実装について述べる。
論文 参考訳(メタデータ) (2021-11-29T13:41:59Z) - Local tensor-network codes [0.0]
表面コードやカラーコードなど,トポロジ的なコードを単純なテンソルネットワークコードとして記述する方法を示す。
ホログラム符号の場合,本手法は効率的であることを示す。
論文 参考訳(メタデータ) (2021-09-24T14:38:06Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Neural networks behave as hash encoders: An empirical study [79.38436088982283]
ReLUライクなアクティベーションを持つニューラルネットワークの入力空間は、複数の線形領域に分割される。
このパーティションは、さまざまなディープラーニングモデルで以下のエンコーディング特性を示すことを実証します。
K$-Means、$K$-NN、およびロジスティック回帰などの単純なアルゴリズムは、トレーニングデータとテストデータの両方でかなり優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-01-14T07:50:40Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。