論文の概要: Graph Tensor Networks: An Intuitive Framework for Designing Large-Scale
Neural Learning Systems on Multiple Domains
- arxiv url: http://arxiv.org/abs/2303.13565v1
- Date: Thu, 23 Mar 2023 13:05:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 17:08:52.812347
- Title: Graph Tensor Networks: An Intuitive Framework for Designing Large-Scale
Neural Learning Systems on Multiple Domains
- Title(参考訳): グラフテンソルネットワーク:複数領域の大規模ニューラルネットワークシステムを設計するための直感的フレームワーク
- Authors: Yao Lei Xu, Kriton Konstantinidis, Danilo P. Mandic
- Abstract要約: 本稿では,大規模ニューラルネットワークシステムの設計と実装のためのグラフネットワーク(GTN)フレームワークを紹介する。
提案されたフレームワークは、多くの一般的なアーキテクチャを特別なケースとして含めるのに十分な一般性があり、あらゆるデータドメイン上のデータを扱うのに十分な柔軟性がある。
- 参考スコア(独自算出の注目度): 23.030263841031633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the omnipresence of tensors and tensor operations in modern deep
learning, the use of tensor mathematics to formally design and describe neural
networks is still under-explored within the deep learning community. To this
end, we introduce the Graph Tensor Network (GTN) framework, an intuitive yet
rigorous graphical framework for systematically designing and implementing
large-scale neural learning systems on both regular and irregular domains. The
proposed framework is shown to be general enough to include many popular
architectures as special cases, and flexible enough to handle data on any and
many data domains. The power and flexibility of the proposed framework is
demonstrated through real-data experiments, resulting in improved performance
at a drastically lower complexity costs, by virtue of tensor algebra.
- Abstract(参考訳): 現代深層学習におけるテンソルとテンソルの操作の普遍性にもかかわらず、ニューラルネットワークを形式的に設計し記述するためのテンソル数学の使用は、深層学習コミュニティ内ではまだ未調査のままである。
この目的のために,グラフテンソルネットワーク(GTN)フレームワークを導入し,正規領域と不規則領域の両方で大規模ニューラルネットワークシステムを体系的に設計・実装する。
提案されたフレームワークは、多くの一般的なアーキテクチャを特別なケースとして含めるのに十分な一般性があり、あらゆるデータドメイン上のデータを扱うのに十分な柔軟性がある。
提案するフレームワークのパワーと柔軟性は,実データ実験によって実証され,テンソル代数により,複雑性コストが大幅に低減され,性能が向上した。
関連論文リスト
- Towards Scalable and Versatile Weight Space Learning [51.78426981947659]
本稿では,重み空間学習におけるSANEアプローチを紹介する。
ニューラルネットワーク重みのサブセットの逐次処理に向けて,超表現の概念を拡張した。
論文 参考訳(メタデータ) (2024-06-14T13:12:07Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - LasTGL: An Industrial Framework for Large-Scale Temporal Graph Learning [61.4707298969173]
本稿では,共通時間グラフ学習アルゴリズムの統一的および統一的な実装を統合する産業用フレームワークであるLasTGLを紹介する。
LasTGLは、詳細なチュートリアルとともに、包括的な時間グラフデータセット、TGNNモデル、ユーティリティを提供する。
論文 参考訳(メタデータ) (2023-11-28T08:45:37Z) - MAgNET: A Graph U-Net Architecture for Mesh-Based Simulations [0.5185522256407782]
我々は、任意のグラフ構造化データに対応するために、よく知られた畳み込みニューラルネットワークを拡張するMagNETを提案する。
固体の力学における非線形有限要素シミュレーションのサロゲートモデリングにおけるMAgNETの予測能力を示す。
論文 参考訳(メタデータ) (2022-11-01T19:23:45Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Hyperbolic Graph Neural Networks: A Review of Methods and Applications [55.5502008501764]
グラフニューラルネットワークは、従来のニューラルネットワークをグラフ構造化データに一般化する。
グラフ関連学習におけるユークリッドモデルの性能は、ユークリッド幾何学の表現能力によって依然として制限されている。
近年,木のような構造を持つグラフデータ処理や,ゆるい分布の処理において,双曲空間が人気が高まっている。
論文 参考訳(メタデータ) (2022-02-28T15:08:48Z) - Learning through structure: towards deep neuromorphic knowledge graph
embeddings [0.5906031288935515]
本稿では,知識グラフ推論のための深層グラフ学習アーキテクチャをニューロモルフィックアーキテクチャにマッピングする戦略を提案する。
ランダムかつ未学習のグラフニューラルネットワークが局所的なグラフ構造を保存することができるという知見に基づいて、凍結したニューラルネットワークの浅い知識グラフ埋め込みモデルを構成する。
我々は,従来型のハードウェア上では,性能水準を維持しながら,高速化とメモリの大幅な削減を実現していることを示す。
論文 参考訳(メタデータ) (2021-09-21T18:01:04Z) - Tensor Networks for Multi-Modal Non-Euclidean Data [24.50116388903113]
本稿では,グラフ,テンソル,ニューラルネットワークの望ましい特性を物理的に有意義でコンパクトな方法で活用する,新しいマルチグラフネットワーク(mgtn)フレームワークを提案する。
これによりMGTNは不規則なデータソースのローカル情報をパラメータの複雑さを大幅に減らすことができる。
MGTNフレームワークの利点、特にテンソルネットワークの固有の低ランク正規化特性による過度な適合を回避する能力が示されている。
論文 参考訳(メタデータ) (2021-03-27T21:33:46Z) - Temporal Graph Networks for Deep Learning on Dynamic Graphs [4.5158585619109495]
時系列グラフネットワーク(TGN)は,時系列イベントのシーケンスとして表される動的グラフの深層学習のための汎用的で効率的なフレームワークである。
メモリモジュールとグラフベースの演算子を組み合わせた新しい組み合わせにより、TGNは、計算効率が向上した以前のアプローチを大幅に上回ることができる。
論文 参考訳(メタデータ) (2020-06-18T16:06:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。