論文の概要: Domain-Aware Tensor Network Structure Search
- arxiv url: http://arxiv.org/abs/2505.23537v1
- Date: Thu, 29 May 2025 15:18:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.93238
- Title: Domain-Aware Tensor Network Structure Search
- Title(参考訳): ドメイン対応テンソルネットワーク構造探索
- Authors: Giorgos Iacovides, Wuyang Zhou, Chao Li, Qibin Zhao, Danilo Mandic,
- Abstract要約: テンソルネットワーク構造探索(TN-SS)問題は依然として課題である。
本稿では,データに関するドメイン情報を組み込んだ新しいTN-SSフレームワークtnLLMを提案する。
tnLLMは,SOTAアルゴリズムに比べて関数評価がはるかに少ないTN-SS目的関数値が得られることを示す。
- 参考スコア(独自算出の注目度): 19.256136107263178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor networks (TNs) provide efficient representations of high-dimensional data, yet identification of the optimal TN structures, the so called tensor network structure search (TN-SS) problem, remains a challenge. Current state-of-the-art (SOTA) algorithms are computationally expensive as they require extensive function evaluations, which is prohibitive for real-world applications. In addition, existing methods ignore valuable domain information inherent in real-world tensor data and lack transparency in their identified TN structures. To this end, we propose a novel TN-SS framework, termed the tnLLM, which incorporates domain information about the data and harnesses the reasoning capabilities of large language models (LLMs) to directly predict suitable TN structures. The proposed framework involves a domain-aware prompting pipeline which instructs the LLM to infer suitable TN structures based on the real-world relationships between tensor modes. In this way, our approach is capable of not only iteratively optimizing the objective function, but also generating domain-aware explanations for the identified structures. Experimental results demonstrate that tnLLM achieves comparable TN-SS objective function values with much fewer function evaluations compared to SOTA algorithms. Furthermore, we demonstrate that the LLM-enabled domain information can be used to find good initializations in the search space for sampling-based SOTA methods to accelerate their convergence while preserving theoretical performance guarantees.
- Abstract(参考訳): テンソルネットワーク(TN)は高次元データの効率的な表現を提供するが、最適なTN構造(いわゆるテンソルネットワーク構造探索(TN-SS)問題)は依然として課題である。
現在の最先端(SOTA)アルゴリズムは、現実世界のアプリケーションでは禁止される広範な機能評価を必要とするため、計算コストが高い。
さらに、既存の手法は、実世界のテンソルデータに固有の価値あるドメイン情報を無視し、識別されたTN構造に透明性を欠いている。
そこで本研究では,データに関するドメイン情報を組み込んだ TN-SS フレームワーク tnLLM を提案する。
提案するフレームワークは,テンソルモード間の現実的関係に基づいて,LLMに適切なTN構造を推定するように指示するドメイン認識プロンプトパイプラインを含む。
このようにして、本手法は目的関数を反復的に最適化するだけでなく、同定された構造に対するドメイン認識的な説明を生成することができる。
実験結果から, tnLLMはSOTAアルゴリズムに比べて関数評価がはるかに少ないTN-SS目的関数値に匹敵する結果が得られた。
さらに, LLM対応ドメイン情報を用いて, サンプリングベースSOTA法において, 理論的性能保証を保ちながら, その収束を早めるため, 探索空間に優れた初期化を求めることができることを示した。
関連論文リスト
- Geometric Neural Process Fields [58.77241763774756]
幾何学的ニューラル・プロセス・フィールド(Geometric Neural Process Fields, G-NPF)は、ニューラル・ラディアンス・フィールドの確率的フレームワークである。
これらの基盤の上に構築された階層型潜在変数モデルにより、G-NPFは複数の空間レベルにまたがる構造情報を統合できる。
3次元シーンと2次元画像と1次元信号レグレッションの新規ビュー合成実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-02-04T14:17:18Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - tnGPS: Discovering Unknown Tensor Network Structure Search Algorithms via Large Language Models (LLMs) [31.69308712027795]
本研究では,大規模言語モデルを用いてテンソルネットワーク構造探索(TN-SS)アルゴリズムの自動探索を行う。
人間の研究者による研究の革新を観察することにより,tnGPSと呼ばれる自動アルゴリズム発見フレームワークを提案する。
提案するフレームワークは、LCMに反復的な改良と拡張を通じて新しいTN-SSアルゴリズムを生成するよう指示する精巧なプロンプトパイプラインである。
論文 参考訳(メタデータ) (2024-02-04T12:06:13Z) - SVDinsTN: A Tensor Network Paradigm for Efficient Structure Search from Regularized Modeling Perspective [41.62808372395741]
ネットワーク(TN)表現はコンピュータビジョンと機械学習の強力な技術である。
TN構造探索(TN-SS)は、コンパクトな表現を実現するためにカスタマイズされた構造を探すことを目的としている。
SVD-インスパイアされたTN分解(SVDinsTN)と呼ばれる新しいTNパラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-24T09:02:01Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。