論文の概要: Reinforcement Learning for Scalable Logic Optimization with Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2105.01755v1
- Date: Tue, 4 May 2021 20:51:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 12:43:42.325778
- Title: Reinforcement Learning for Scalable Logic Optimization with Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークを用いたスケーラブル論理最適化のための強化学習
- Authors: Xavier Timoneda, Lukas Cavigelli
- Abstract要約: 本稿では,グラフ畳み込みネットワークと強化学習とを組み合わせることで,論理グラフにどの局所変換を適用するべきかを学習するための新しいスケーラブルノード埋め込み手法を提案する。
本手法は,小型回路におけるABCと同じようなサイズ低減を実現し,より大きなランダムグラフ上で1.5-1.75倍に上ることを示す。
- 参考スコア(独自算出の注目度): 5.156191363676411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logic optimization is an NP-hard problem commonly approached through
hand-engineered heuristics. We propose to combine graph convolutional networks
with reinforcement learning and a novel, scalable node embedding method to
learn which local transforms should be applied to the logic graph. We show that
this method achieves a similar size reduction as ABC on smaller circuits and
outperforms it by 1.5-1.75x on larger random graphs.
- Abstract(参考訳): 論理最適化(英: logic optimization)は、手工学のヒューリスティックスによって一般的に解かれるnpハード問題である。
本稿では,グラフ畳み込みネットワークと強化学習を組み合わせて,論理グラフにどの局所変換を適用するべきかを学習するための,スケーラブルなノード埋め込み手法を提案する。
本手法はより小さな回路上でabcと同規模の縮小を達成し、より大きなランダムグラフでは1.5-1.75倍小さくなることを示す。
関連論文リスト
- Unifews: Unified Entry-Wise Sparsification for Efficient Graph Neural Network [10.556366638048384]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクにおいて有望な性能を示すが、リソース集約型計算のコストがかかる。
従来の研究では,グラフレベルやネットワークレベルのスペーシフィケーション技術を活用して,計算予算の削減を試みた。
個々の行列要素を考慮したエントリワイズ方式で2つの演算を統一するUnifewsを提案する。
論文 参考訳(メタデータ) (2024-03-20T03:07:30Z) - Ensemble Quadratic Assignment Network for Graph Matching [52.20001802006391]
グラフマッチングはコンピュータビジョンやパターン認識において一般的に用いられる技法である。
最近のデータ駆動型アプローチは、グラフマッチングの精度を著しく改善した。
データ駆動手法と従来の手法の利点を組み合わせたグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-11T06:34:05Z) - CoRe-GD: A Hierarchical Framework for Scalable Graph Visualization with
GNNs [20.706469085872516]
我々は、ストレスの最適化を学習できるサブクワッドラティックを備えたスケーラブルなグラフニューラルネットワーク(GNN)ベースのグラフ描画フレームワークを導入する。
古典的応力最適化手法と強制指向レイアウトアルゴリズムに着想を得て,入力グラフの粗い階層を生成する。
ネットワーク内の情報伝達を強化するために,新しい位置変換手法を提案する。
論文 参考訳(メタデータ) (2024-02-09T10:50:45Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - X-RLflow: Graph Reinforcement Learning for Neural Network Subgraphs
Transformation [0.0]
グラフスーパー最適化システムは、最適な計算グラフ構造を見つけるために、ニューラルネットワークへのサブグラフ置換のシーケンスを実行する。
提案手法は,多種多様なディープラーニングモデルにおいて最先端の超最適化システムより優れており,トランスフォーマースタイルのアーキテクチャをベースとしたシステムでは最大40%の精度で実現可能であることを示す。
論文 参考訳(メタデータ) (2023-04-28T09:06:18Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Unrolling of Deep Graph Total Variation for Image Denoising [106.93258903150702]
本稿では,従来のグラフ信号フィルタリングと深い特徴学習を併用して,競合するハイブリッド設計を提案する。
解釈可能な低パスグラフフィルタを用い、最先端のDL復調方式DnCNNよりも80%少ないネットワークパラメータを用いる。
論文 参考訳(メタデータ) (2020-10-21T20:04:22Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。