論文の概要: Tensor Computing Interface: An Application-Oriented, Lightweight Interface for Portable High-Performance Tensor Network Applications
- arxiv url: http://arxiv.org/abs/2512.23917v1
- Date: Tue, 30 Dec 2025 00:35:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.244946
- Title: Tensor Computing Interface: An Application-Oriented, Lightweight Interface for Portable High-Performance Tensor Network Applications
- Title(参考訳): Tensor Computing Interface: ポータブル高性能テンソルネットワークアプリケーションのためのアプリケーション指向軽量インタフェース
- Authors: Rong-Yang Sun, Tomonori Shirakawa, Hidehiko Kohshiro, D. N. Sheng, Seiji Yunoki,
- Abstract要約: テンソルネットワーク(TN)は、量子科学と人工知能の中心的な計算ツールである。
テンソル計算フレームワーク間の統一されたソフトウェアインターフェースの欠如は、TNアプリケーションのポータビリティを著しく制限する。
アプリケーション指向で軽量なプログラミングアプリケーションインターフェースであるComputer Interface (TCI)を紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor networks (TNs) are a central computational tool in quantum science and artificial intelligence. However, the lack of unified software interface across tensor-computing frameworks severely limits the portability of TN applications, coupling algorithmic development to specific hardware and software back ends. To address this challenge, we introduce the Tensor Computing Interface (TCI) -- an application-oriented, lightweight application programming interface designed to enable framework-independent, high-performance TN applications. TCI provides a well-defined type system that abstracts tensor objects together with a minimal yet expressive set of core functions covering essential tensor manipulations and tensor linear-algebra operations. Through numerical demonstrations on representative tensor-network applications, we show that codes written against TCI can be migrated seamlessly across heterogeneous hardware and software platforms while achieving performance comparable to native framework implementations. We further release an open-source implementation of TCI based on \textit{Cytnx}, demonstrating its practicality and ease of integration with existing tensor-computing frameworks.
- Abstract(参考訳): テンソルネットワーク(TN)は、量子科学と人工知能の中心的な計算ツールである。
しかしながら、テンソルコンピューティングフレームワークにまたがる統一されたソフトウェアインターフェースの欠如は、TNアプリケーションのポータビリティを著しく制限し、特定のハードウェアとソフトウェアバックエンドにアルゴリズム開発を結合する。
この課題に対処するために,フレームワークに依存しない高性能なTNアプリケーションを実現するために設計された,アプリケーション指向で軽量なアプリケーションプログラミングインターフェースであるTensor Computing Interface (TCI)を紹介した。
TCIは、テンソルオブジェクトを、必要不可欠なテンソル操作とテンソル線形代数操作を含む最小かつ表現力に富んだコア関数の集合と共に抽象化する、明確に定義された型システムを提供する。
代表的テンソルネットワークアプリケーション上での数値的な実演を通して、TYで書かれたコードは、ネイティブフレームワークの実装に匹敵する性能を保ちながら、異種ハードウェアやソフトウェアプラットフォーム間でシームレスに移行可能であることを示す。
さらに、既存のテンソル計算フレームワークとの統合の実用性と容易性を実証した、textit{Cytnx}に基づくTYのオープンソース実装をリリースする。
関連論文リスト
- NetQMPI: An MPI-Inspired software for programming Distributed Quantum Applications over Quantum Networks using NetQASM SDK [0.0]
本稿では,Message Passing Interface (MPI) 標準を量子領域に適用したハイレベルPythonフレームワークである textbfNetQMPI を紹介する。
本研究では,Non-Cloning Theoremの制約に対処するセマンティック・ポイント・ツー・ポイント・プリミティブと,公開や非公開といった新しい集合操作を提案する。
論文 参考訳(メタデータ) (2025-12-12T11:32:42Z) - A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications [4.681322438383984]
本稿では,DNN証明書のニューロンレベル仕様をテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析によって実現されている。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
論文 参考訳(メタデータ) (2025-07-26T20:38:29Z) - A projection-based framework for gradient-free and parallel learning [50.96641619247761]
私たちはこのパラダイムを実現するJAXベースのソフトウェアフレームワークであるPJAXを紹介します。
PJAXは基本演算に対する射影演算子を構成し、実現可能性問題に対する解演算子を自動的に導出する。
各種アーキテクチャ(MLP、CNN、RNN)を標準ベンチマークでPJAXを用いてトレーニングし、その汎用性を実証する。
論文 参考訳(メタデータ) (2025-06-06T08:44:56Z) - NNTile: a machine learning framework capable of training extremely large GPT language models on a single node [83.9328245724548]
NNTileはタスクベースの並列処理を実装したStarPUライブラリをベースとしている。
これは、大きなニューラルネットワークをトレーニングするために必要な特定の操作が、CPUコアまたはGPUデバイスのいずれかで実行されることを意味する。
論文 参考訳(メタデータ) (2025-04-17T16:22:32Z) - Ultra-low latency quantum-inspired machine learning predictors implemented on FPGA [0.0]
ツリーネットワーク(TN)は、量子多体系を表現するために用いられる計算パラダイムである。
最近の研究は、機械学習(ML)タスクの実行にTNを適用する方法を示している。
本研究では、FPGA(Field-Programmable Gate Array)技術の低ハードウェアを利用して、TTNを高周波リアルタイムアプリケーションに利用することを検討した。
論文 参考訳(メタデータ) (2024-09-24T13:21:21Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - DFSynthesizer: Dataflow-based Synthesis of Spiking Neural Networks to
Neuromorphic Hardware [4.273223677453178]
Spiking Neural Networks(SNN)は、イベント駆動型アクティベーションとバイオインスパイアされた学習アルゴリズムを使用する、新たな計算モデルである。
DF Synthesizerは、SNNベースの機械学習プログラムをニューロモルフィックハードウェアに合成するためのエンドツーエンドフレームワークである。
論文 参考訳(メタデータ) (2021-08-04T12:49:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。