論文の概要: Photonics-Enhanced Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2512.15549v1
- Date: Wed, 17 Dec 2025 15:55:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.049495
- Title: Photonics-Enhanced Graph Convolutional Networks
- Title(参考訳): フォトニクスによるグラフ畳み込みネットワーク
- Authors: Yuan Wang, Oleksandr Kyriienko,
- Abstract要約: 光学的位置埋め込み(PE)は、グラフ畳み込みネットワーク(GCN)を強化するために使用される
本稿では,結合が入力グラフに一致する合成周波数格子上での光伝搬から導出されるPEを用いて,グラフ畳み込みネットワーク(GCN)を増大させるフォトニクス法を提案する。
以上の結果から,フォトニックPEはGCN性能を向上し,グラフMLの光加速度をサポートすることがわかった。
- 参考スコア(独自算出の注目度): 16.804891518146775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photonics can offer a hardware-native route for machine learning (ML). However, efficient deployment of photonics-enhanced ML requires hybrid workflows that integrate optical processing with conventional CPU/GPU based neural network architectures. Here, we propose such a workflow that combines photonic positional embeddings (PEs) with advanced graph ML models. We introduce a photonics-based method that augments graph convolutional networks (GCNs) with PEs derived from light propagation on synthetic frequency lattices whose couplings match the input graph. We simulate propagation and readout to obtain internode intensity correlation matrices, which are used as PEs in GCNs to provide global structural information. Evaluated on Long Range Graph Benchmark molecular datasets, the method outperforms baseline GCNs with Laplacian based PEs, achieving $6.3\%$ lower mean absolute error for regression and $2.3\%$ higher average precision for classification tasks using a two-layer GCN as a baseline. When implemented in high repetition rate photonic hardware, correlation measurements can enable fast feature generation by bypassing digital simulation of PEs. Our results show that photonic PEs improve GCN performance and support optical acceleration of graph ML.
- Abstract(参考訳): Photonicsは、機械学習(ML)のためのハードウェアネイティブなルートを提供することができる。
しかし、フォトニクス強化MLの効率的なデプロイには、従来のCPU/GPUベースのニューラルネットワークアーキテクチャと光学処理を統合するハイブリッドワークフローが必要である。
本稿では,フォトニック位置埋め込み(PE)と高度なグラフMLモデルを組み合わせたワークフローを提案する。
本稿では,結合が入力グラフに一致する合成周波数格子上での光伝搬から導出されるPEを用いて,グラフ畳み込みネットワーク(GCN)を増大させるフォトニクス法を提案する。
我々は,グローバルな構造情報を提供するためにGCNのPEとして使用されるノード間強度相関行列を得るために,伝搬と読み出しをシミュレートする。
この手法はLong Range Graph Benchmark分子データセットに基づいて評価され、2層GCNをベースラインとして、レグレッションの平均絶対誤差が6.3\%、そして2層GCNをベースラインとして、分類タスクの平均精度が2.3\%である。
高繰り返しフォトニックハードウェアで実装すると、相関測定はPEのディジタルシミュレーションをバイパスして高速な特徴生成を可能にする。
以上の結果から,フォトニックPEはGCN性能を向上し,グラフMLの光加速度をサポートすることがわかった。
関連論文リスト
- Toward Relative Positional Encoding in Spiking Transformers [76.72869420863749]
スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、脳内のニューロンが離散スパイクを通してどのように通信するかを模倣するバイオインスパイアネットワークである。
スパイクのバイナリ特性を保ちながら、スパイク変換器における相対的な位置エンコーディングを近似する戦略をいくつか導入する。
論文 参考訳(メタデータ) (2025-01-28T06:42:37Z) - Quantifying the Optimization and Generalization Advantages of Graph Neural Networks Over Multilayer Perceptrons [50.33260238739837]
グラフネットワーク(GNN)は、グラフ構造化データから学習する際、顕著な能力を示した。
最適化と一般化の観点から、GNNと一般化を比較した分析の欠如がまだ残っている。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Learnable Filters for Geometric Scattering Modules [64.03877398967282]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2022-08-15T22:30:07Z) - LWGNet: Learned Wirtinger Gradients for Fourier Ptychographic Phase
Retrieval [14.588976801396576]
本稿では,フォワードイメージングシステムの知識と深層データ駆動ネットワークを組み合わせたハイブリッドモデル駆動残差ネットワークを提案する。
従来のアンローリング技術とは異なり、LWGNetは従来のディープ・ラーニング・テクニックよりも少ない段数しか使用していない。
この低ビット深度・低コストセンサの性能向上は、FPM撮像装置のコストを大幅に下げる可能性がある。
論文 参考訳(メタデータ) (2022-08-08T17:22:54Z) - H-GCN: A Graph Convolutional Network Accelerator on Versal ACAP
Architecture [13.149863422504332]
H-GCNはその固有の不均一性に基づいてグラフを3つの部分グラフに分割し、それぞれPLとAIEを使用して処理する。
最先端のGNNアクセラレータと比較して、H-GCNは平均して1.12.3Xのスピードアップを達成する。
論文 参考訳(メタデータ) (2022-06-28T03:37:31Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - All-optical graph representation learning using integrated diffractive
photonic computing units [51.15389025760809]
フォトニックニューラルネットワークは、電子の代わりに光子を用いて脳にインスパイアされた計算を行う。
我々は、DGNN(diffractive graph neural network)と呼ばれる全光グラフ表現学習アーキテクチャを提案する。
ベンチマークデータベースを用いたノードおよびグラフレベルの分類タスクにおけるDGNN抽出機能の利用を実演し、優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-23T02:29:48Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Data-Driven Learning of Geometric Scattering Networks [74.3283600072357]
最近提案された幾何散乱変換の緩和に基づく新しいグラフニューラルネットワーク(GNN)モジュールを提案する。
我々の学習可能な幾何散乱(LEGS)モジュールは、ウェーブレットの適応的なチューニングを可能にし、学習された表現に帯域通過の特徴が現れるように促す。
論文 参考訳(メタデータ) (2020-10-06T01:20:27Z) - GraphACT: Accelerating GCN Training on CPU-FPGA Heterogeneous Platforms [1.2183405753834562]
グラフ畳み込みネットワーク(GCN)は、グラフ上での表現学習のための最先端のディープラーニングモデルとして登場した。
実質的かつ不規則なデータ通信のため、GCNの訓練を加速することは困難である。
我々はCPU-FPGAヘテロジニアスシステム上でGCNをトレーニングするための新しいアクセラレータを設計する。
論文 参考訳(メタデータ) (2019-12-31T21:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。