論文の概要: TensorKrowch: Smooth integration of tensor networks in machine learning
- arxiv url: http://arxiv.org/abs/2306.08595v2
- Date: Thu, 30 May 2024 11:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-01 00:02:40.332647
- Title: TensorKrowch: Smooth integration of tensor networks in machine learning
- Title(参考訳): TensorKrowch: マシンラーニングにおけるテンソルネットワークのスムーズな統合
- Authors: José Ramón Pareja Monturiol, David Pérez-García, Alejandro Pozas-Kerstjens,
- Abstract要約: PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
- 参考スコア(独自算出の注目度): 46.0920431279359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor networks are factorizations of high-dimensional tensors into networks of smaller tensors. They have applications in physics and mathematics, and recently have been proposed as promising machine learning architectures. To ease the integration of tensor networks in machine learning pipelines, we introduce TensorKrowch, an open source Python library built on top of PyTorch. Providing a user-friendly interface, TensorKrowch allows users to construct any tensor network, train it, and integrate it as a layer in more intricate deep learning models. In this paper, we describe the main functionality and basic usage of TensorKrowch, and provide technical details on its building blocks and the optimizations performed to achieve efficient operation.
- Abstract(参考訳): テンソルネットワークは、高次元テンソルからより小さなテンソルのネットワークへの分解である。
それらは物理学や数学に応用されており、最近では有望な機械学習アーキテクチャとして提案されている。
機械学習パイプラインにおけるテンソルネットワークの統合を容易にするため、PyTorch上に構築されたオープンソースのPythonライブラリであるTensorKrowchを紹介した。
ユーザフレンドリなインターフェースを提供するTensorKrowchでは,任意のテンソルネットワークを構築してトレーニングし,より複雑なディープラーニングモデルのレイヤとして統合することができる。
本稿では,TensorKrowchの主な機能と基本的な使用法について述べるとともに,その構築ブロックと効率的な操作を実現するための最適化について技術的に詳述する。
関連論文リスト
- Symbolically integrating tensor networks over various random tensors by
the second version of Python RTNI [0.5439020425818999]
我々は、Haar分散ユニタリ行列上のテンソルネットワークを象徴的に統合するRTNIのPythonバージョンをアップグレードしている。
現在、PyRTNI2 はハール分布行列と実かつ複素正規ガウステンソルも扱うことができる。
本稿では,プログラムの背後にある数学を説明し,それを用いてどのようなテンソルネットワーク計算を行うことができるかを示す。
論文 参考訳(メタデータ) (2023-09-03T13:14:46Z) - Tensor networks in machine learning [0.0]
テンソルネットワーク(テンソルネットワーク)は、大規模なデータ配列を表現および近似するために用いられる分解である。
テンソルネットワークと機械学習の融合は自然である。
ここで、ネットワークパラメータを調整して、データセットを学習または分類する。
論文 参考訳(メタデータ) (2022-07-06T18:00:00Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - Implementing graph neural networks with TensorFlow-Keras [1.6114012813668934]
グラフニューラルネットワークは、最近多くの注目を集めた汎用的な機械学習アーキテクチャです。
本技術報告では,Keras-Kerasモデルに対する畳み込み層とプール層の実装について述べる。
論文 参考訳(メタデータ) (2021-03-07T10:46:02Z) - DeepReduce: A Sparse-tensor Communication Framework for Distributed Deep
Learning [79.89085533866071]
本稿では,スパーステンソルの圧縮通信のための汎用的フレームワークであるDeepReduceを紹介する。
DeepReduceはテンソルを2つの集合、値とインデックスに分解し、これらの集合の独立圧縮と結合圧縮を可能にする。
大規模実モデルを用いた実験により,DeepReduceはデータ転送を少なくし,既存の手法よりも計算オーバーヘッドを小さくすることを示した。
論文 参考訳(メタデータ) (2021-02-05T11:31:24Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Approximation with Tensor Networks. Part II: Approximation Rates for
Smoothness Classes [0.0]
滑らか度クラスから関数のテンソルネットワーク(TN)による近似について検討する。
結果として得られるツールは、フィードフォワードニューラルネットワークとして解釈できる。
任意のベソフ関数は最適あるいはほぼ最適な速度で近似できることを示す。
論文 参考訳(メタデータ) (2020-06-30T21:57:42Z) - Neural Network Compression Framework for fast model inference [59.65531492759006]
我々は、ニューラルネットワーク圧縮フレームワーク(NNCF)と呼ばれる、微調整によるニューラルネットワーク圧縮のための新しいフレームワークを提案する。
様々なネットワーク圧縮手法の最近の進歩を活用し、空間性、量子化、双項化などのいくつかの実装を行っている。
フレームワークは、トレーニングサンプル内に提供され、あるいは既存のトレーニングコードにシームレスに統合可能なスタンドアロンパッケージとして使用することができる。
論文 参考訳(メタデータ) (2020-02-20T11:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。