論文の概要: TedNet: A Pytorch Toolkit for Tensor Decomposition Networks
- arxiv url: http://arxiv.org/abs/2104.05018v1
- Date: Sun, 11 Apr 2021 14:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:35:15.549741
- Title: TedNet: A Pytorch Toolkit for Tensor Decomposition Networks
- Title(参考訳): TedNet:テンソル分解ネットワークのためのPytorchツールキット
- Authors: Yu Pan, Maolin Wang, Zenglin Xu
- Abstract要約: TedNetはPytorchフレームワークに基づいており、より多くの研究者がTDNを活用できる柔軟な方法を提供します。
従来の深層神経層に5種類のテンソル分解(CANDECOMP/PARAFAC(CP), Block-Term Tucker(BT), Tucker-2, Train(TT), Ring(TR))を実装している。
- 参考スコア(独自算出の注目度): 20.12072373309054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor Decomposition Networks(TDNs) prevail for their inherent compact
architectures. For providing convenience, we present a toolkit named TedNet
that is based on the Pytorch framework, to give more researchers a flexible way
to exploit TDNs. TedNet implements 5 kinds of tensor decomposition(i.e.,
CANDECOMP/PARAFAC(CP), Block-Term Tucker(BT), Tucker-2, Tensor Train(TT) and
Tensor Ring(TR)) on traditional deep neural layers, the convolutional layer and
the fully-connected layer. By utilizing these basic layers, it is simple to
construct a variety of TDNs like TR-ResNet, TT-LSTM, etc. TedNet is available
at https://github.com/tnbar/tednet.
- Abstract(参考訳): テンソル分解ネットワーク(TDN)は、その固有のコンパクトアーキテクチャにおいて一般的である。
利便性を提供するため、PytorchフレームワークをベースにしたTedNetというツールキットを提案し、より多くの研究者がTDNを利用する柔軟な方法を提供する。
TedNetは5種類のテンソル分解(CANDECOMP/PARAFAC(CP)、Block-Term Tucker(BT)、Tucker-2、Tensor Train(TT)、Tensor Ring(TR))を従来のディープニューラルネットワーク層、畳み込み層、完全接続層に実装している。
これらの基本レイヤを利用することで,TR-ResNetやTT-LSTMなど,さまざまなTDNの構築が容易になる。
TedNetはhttps://github.com/tnbar/tednet.comで入手できる。
関連論文リスト
- TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Mixed-TD: Efficient Neural Network Accelerator with Layer-Specific
Tensor Decomposition [7.221206118679026]
そこで我々は,Mixed-TDと呼ばれるテンソル分解法に基づいて,CNNをFPGAにマッピングするフレームワークを提案する。
提案手法は,DSP毎の1.73倍から10.29倍のスループットを最先端CNNに適用し,層固有特異値分解(SVD)とカノニカルポリアディック分解(CPD)を混合的に適用する。
論文 参考訳(メタデータ) (2023-06-08T08:16:38Z) - TT-TFHE: a Torus Fully Homomorphic Encryption-Friendly Neural Network
Architecture [6.712038486885704]
本稿では,Truth-Table Neural Networks(TTnet)と呼ばれる最近の畳み込みニューラルネットワーク群を用いて,Torus FHE(TFHE)をデータセットに効果的に拡張するフレームワークを提案する。
TT-TFHEは3つのデータセット上の全ホモモルフィック暗号化(HE)セットアップの時間と正確性において、大幅に向上する。
私たちのソリューションはメモリフットプリントが非常に低く(MNISTでは数十MBまで)、ユーザ毎に数十から数百GBのメモリを必要とする他のHEセットアップとは対照的です。
論文 参考訳(メタデータ) (2023-02-03T07:32:23Z) - STN: Scalable Tensorizing Networks via Structure-Aware Training and
Adaptive Compression [10.067082377396586]
本稿では,モデルサイズと分解構造を適応的に調整するスケーラビリティネットワーク(STN)を提案する。
STNは任意のネットワークアーキテクチャと互換性があり、他のテンソル化バージョンよりも高い圧縮性能と柔軟性を実現する。
論文 参考訳(メタデータ) (2022-05-30T15:50:48Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Convolutional Networks with Dense Connectivity [59.30634544498946]
Dense Convolutional Network (DenseNet)を導入し、フィードフォワード方式で各レイヤを他のすべてのレイヤに接続する。
各レイヤについて、先行するすべてのレイヤのフィーチャーマップをインプットとして使用し、それ自身のフィーチャーマップをその後のすべてのレイヤへのインプットとして使用します。
提案したアーキテクチャを、4つの高度に競争力のあるオブジェクト認識ベンチマークタスクで評価する。
論文 参考訳(メタデータ) (2020-01-08T06:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。