論文の概要: Renormalization Group Guided Tensor Network Structure Search
- arxiv url: http://arxiv.org/abs/2512.24663v1
- Date: Wed, 31 Dec 2025 06:31:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.586293
- Title: Renormalization Group Guided Tensor Network Structure Search
- Title(参考訳): テンソルネットワーク構造探索のための正規化グループ
- Authors: Maolin Wang, Bowen Yu, Sheng Zhang, Linjie Mi, Wanyu Wang, Yiqi Wang, Pengyue Jia, Xuetao Wei, Zenglin Xu, Ruocheng Guo, Xiangyu Zhao,
- Abstract要約: ネットワーク構造探索(TN-SS)は、高次元データ表現における効率的なテンソル分解のための最適なネットワークトポロジとランクロバスト性を自動的に発見することを目的としている。
RGTN(Renormalization Group Guided Network Search)は、TN-SSを変換する物理に着想を得たフレームワークである。
- 参考スコア(独自算出の注目度): 58.0378300612202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor network structure search (TN-SS) aims to automatically discover optimal network topologies and rank configurations for efficient tensor decomposition in high-dimensional data representation. Despite recent advances, existing TN-SS methods face significant limitations in computational tractability, structure adaptivity, and optimization robustness across diverse tensor characteristics. They struggle with three key challenges: single-scale optimization missing multi-scale structures, discrete search spaces hindering smooth structure evolution, and separated structure-parameter optimization causing computational inefficiency. We propose RGTN (Renormalization Group guided Tensor Network search), a physics-inspired framework transforming TN-SS via multi-scale renormalization group flows. Unlike fixed-scale discrete search methods, RGTN uses dynamic scale-transformation for continuous structure evolution across resolutions. Its core innovation includes learnable edge gates for optimization-stage topology modification and intelligent proposals based on physical quantities like node tension measuring local stress and edge information flow quantifying connectivity importance. Starting from low-complexity coarse scales and refining to finer ones, RGTN finds compact structures while escaping local minima via scale-induced perturbations. Extensive experiments on light field data, high-order synthetic tensors, and video completion tasks show RGTN achieves state-of-the-art compression ratios and runs 4-600$\times$ faster than existing methods, validating the effectiveness of our physics-inspired approach.
- Abstract(参考訳): テンソルネットワーク構造探索(TN-SS)は、高次元データ表現における効率的なテンソル分解のための最適なネットワークトポロジとランク構成を自動的に発見することを目的としている。
近年の進歩にもかかわらず、既存のTN-SS法は計算的トラクタビリティ、構造適応性、および様々なテンソル特性にまたがるロバスト性に大きな制限に直面している。
マルチスケール構造を欠いた単一スケールの最適化、スムーズな構造の進化を妨げる離散探索空間、計算不効率を引き起こす構造パラメータの分離である。
RGTN(Renormalization Group guided Tensor Network search, RGTN)は、TN-SSを変換する物理に着想を得たフレームワークである。
固定スケールの離散探索法とは異なり、RGTNは解像度を越えた連続的な構造進化のために動的スケール変換を使用する。
その中核となるイノベーションは、最適化段階のトポロジー修正のための学習可能なエッジゲートと、ノード張力測定や接続性の重要性を定量化するエッジ情報フローといった物理量に基づくインテリジェントな提案である。
低複雑さの粗いスケールからより微細なスケールへの精製から始まり、RGTNはスケール誘起摂動によって局所的なミニマから逃げながらコンパクトな構造を見つける。
光電場データ、高次合成テンソル、ビデオ補完タスクに関する大規模な実験により、RGTNは最先端圧縮比を達成し、既存の方法よりも4-600$\times$で動作し、物理に着想を得たアプローチの有効性を検証する。
関連論文リスト
- Domain-Aware Tensor Network Structure Search [22.325243921591774]
テンソルネットワーク構造探索(TN-SS)問題は依然として課題である。
現在の最先端(SOTA)アルゴリズムは、純粋に数値最適化問題としてTN-SSを解く。
本稿では,データに関するドメイン情報を組み込んだ新しいTN-SSフレームワークtnLLMを提案する。
論文 参考訳(メタデータ) (2025-05-29T15:18:33Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - tnGPS: Discovering Unknown Tensor Network Structure Search Algorithms via Large Language Models (LLMs) [31.69308712027795]
本研究では,大規模言語モデルを用いてテンソルネットワーク構造探索(TN-SS)アルゴリズムの自動探索を行う。
人間の研究者による研究の革新を観察することにより,tnGPSと呼ばれる自動アルゴリズム発見フレームワークを提案する。
提案するフレームワークは、LCMに反復的な改良と拡張を通じて新しいTN-SSアルゴリズムを生成するよう指示する精巧なプロンプトパイプラインである。
論文 参考訳(メタデータ) (2024-02-04T12:06:13Z) - SVDinsTN: A Tensor Network Paradigm for Efficient Structure Search from Regularized Modeling Perspective [41.62808372395741]
ネットワーク(TN)表現はコンピュータビジョンと機械学習の強力な技術である。
TN構造探索(TN-SS)は、コンパクトな表現を実現するためにカスタマイズされた構造を探すことを目的としている。
SVD-インスパイアされたTN分解(SVDinsTN)と呼ばれる新しいTNパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-24T09:02:01Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Adaptive Learning of Tensor Network Structures [6.407946291544721]
我々はTN形式を利用して汎用的で効率的な適応アルゴリズムを開発し、データからTNの構造とパラメータを学習する。
本アルゴリズムは,任意の微分対象関数を効果的に最適化する少数のパラメータでTN構造を適応的に同定することができる。
論文 参考訳(メタデータ) (2020-08-12T16:41:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。