論文の概要: GraphMend: Code Transformations for Fixing Graph Breaks in PyTorch 2
- arxiv url: http://arxiv.org/abs/2509.16248v1
- Date: Wed, 17 Sep 2025 17:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.697456
- Title: GraphMend: Code Transformations for Fixing Graph Breaks in PyTorch 2
- Title(参考訳): GraphMend: PyTorch 2のグラフブレークを修正するためのコード変換
- Authors: Savini Kashmira, Jayanaka Dantanarayana, Thamirawaran Sathiyalogeswaran, Yichao Yuan, Nishil Talati, Krisztian Flautner, Lingjia Tang, Jason Mars,
- Abstract要約: GraphMendは、PyTorch 2プログラムのFXグラフのブレークを排除したハイレベルコンパイラである。
NVIDIA 3090とA40では、GraphMendは最大75%のレイテンシ削減と最大8%のエンドツーエンドスループットを実現している。
- 参考スコア(独自算出の注目度): 3.3228118981378816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents GraphMend, a high-level compiler that eliminates FX graph breaks in PyTorch 2 programs. Although PyTorch 2 introduced TorchDynamo and TorchInductor to enable just-in-time graph compilation, unresolved dynamic control flow and unsupported Python constructs often fragment models into multiple FX graphs. These fragments force frequent fallbacks to eager mode, incur costly CPU-to-GPU synchronizations, and reduce optimization opportunities. GraphMend addresses this limitation by analyzing and transforming source code before execution. Built on the Jac compilation framework, GraphMend introduces two code transformations that remove graph breaks due to dynamic control flow and Python I/O functions. This design allows PyTorch's compilation pipeline to capture larger, uninterrupted FX graphs without requiring manual refactoring by developers. Evaluation across eight Hugging Face models shows that GraphMend removes all fixable graph breaks due to dynamic control flow and Python I/O functions, driving the break count to 0 in 6 models and reducing it from 5 to 2 in another model. On NVIDIA RTX 3090 and A40 GPUs, GraphMend achieves up to 75% latency reductions and up to 8% higher end-to-end throughput. These results demonstrate that high-level code transformation is an effective complement to PyTorch's dynamic JIT compilation pipeline, substantially improving both usability and performance.
- Abstract(参考訳): 本稿では,PyTorch 2 プログラムにおける FX グラフの破れを除去する高レベルコンパイラ GraphMend を提案する。
PyTorch 2は、ジャスト・イン・タイムグラフのコンパイルを可能にするTorchDynamoとTorchInductorを導入したが、未解決の動的制御フローとサポートされていないPythonは、しばしばモデルを複数のFXグラフにフラグメントする。
これらのフラグメントは、頻繁なフォールバックをエキサイティングモードに強制し、CPUとGPUの同期を犠牲にし、最適化の機会を減らします。
GraphMendはこの制限に対処し、実行前にソースコードを分析して変換する。
Jacコンパイルフレームワーク上に構築されたGraphMendでは、動的制御フローとPython I/O関数によるグラフブレークを削除する2つのコード変換が導入されている。
この設計により、PyTorchのコンパイルパイプラインは、開発者が手動でリファクタリングすることなく、より大きな、中断していないFXグラフをキャプチャできる。
8つのHugging Faceモデルに対する評価によると、GraphMendは動的制御フローとPython I/O関数によって、すべての修正可能なグラフブレークを削除し、ブレーク数を6モデルで0に、別のモデルで5から2に削減している。
NVIDIA RTX 3090とA40 GPUでは、GraphMendは最大75%のレイテンシ削減と最大8%のエンドツーエンドスループットを実現している。
これらの結果は、高レベルのコード変換がPyTorchの動的JITコンパイルパイプラインの効果的な補完であり、ユーザビリティとパフォーマンスの両方を大幅に改善していることを示している。
関連論文リスト
- PyGraph: Robust Compiler Support for CUDA Graphs in PyTorch [1.2334708058524546]
我々はPyTorch2内でNVIDIA Graphのパワーを自動で活用する新しいアプローチであるPyGraphを紹介する。
我々はPyGraphをさまざまな機械学習ベンチマークで評価し、PyTorch2よりも大幅に性能を向上した。
論文 参考訳(メタデータ) (2025-03-25T15:47:54Z) - Flatten Graphs as Sequences: Transformers are Scalable Graph Generators [7.341041463243556]
AutoGraphは、デコーダのみのトランスフォーマーを使用した属性グラフ生成のためのスケーラブルな自動回帰モデルである。
合成および分子ベンチマークの最先端性能を達成し、最大100倍高速な生成と3倍高速なトレーニングを実現している。
論文 参考訳(メタデータ) (2025-02-04T10:52:14Z) - InstructG2I: Synthesizing Images from Multimodal Attributed Graphs [50.852150521561676]
InstructG2Iと呼ばれるグラフ文脈条件拡散モデルを提案する。
InstructG2Iはまずグラフ構造とマルチモーダル情報を利用して情報的隣人サンプリングを行う。
Graph-QFormerエンコーダは、グラフノードをグラフプロンプトの補助セットに適応的に符号化し、デノナイジングプロセスを導く。
論文 参考訳(メタデータ) (2024-10-09T17:56:15Z) - TorchGT: A Holistic System for Large-scale Graph Transformer Training [27.67050123844626]
Graph Transformerは、グラフ学習においてGNNを上回る新しいアーキテクチャである。
本稿では,最初の効率的でスケーラブルで正確なグラフトランスフォーマートレーニングシステムであるTorchGTを提案する。
TorchGTはトレーニングを62.7倍に強化し、グラフシーケンスの長さを最大1Mまでサポートする。
論文 参考訳(メタデータ) (2024-07-19T08:21:42Z) - GraphStorm: all-in-one graph machine learning framework for industry applications [75.23076561638348]
GraphStormはスケーラブルなグラフ構築、グラフモデルのトレーニング、推論のためのエンドツーエンドソリューションである。
GraphStormのすべてのコンポーネントは数十億のノードを持つグラフ上で動作でき、コードを変更することなく、モデルのトレーニングと推論を異なるハードウェアにスケールすることができる。
GraphStormは、2023年5月にリリースされて以来、数十億以上の業界アプリケーションで使われ、デプロイされてきた。
論文 参考訳(メタデータ) (2024-06-10T04:56:16Z) - SpikeGraphormer: A High-Performance Graph Transformer with Spiking Graph Attention [1.4126245676224705]
Graph Transformerは、Graph Neural Networks(GNN)固有の制限を軽減するための、有望なソリューションとして登場した。
本稿では,SNNとグラフ変換器の統合に関する新たな知見を提案し,Spiking Graph Attention (SGA) モジュールを設計する。
SpikeGraphormerは、さまざまなデータセットにわたる既存の最先端アプローチを一貫して上回る。
論文 参考訳(メタデータ) (2024-03-21T03:11:53Z) - A Graph is Worth $K$ Words: Euclideanizing Graph using Pure Transformer [47.25114679486907]
我々は、非ユークリッドグラフを学習可能なグラフワードに変換するGraph2Seqエンコーダを特徴とするGraphsGPTを紹介する。
GraphGPTデコーダは、元のグラフをGraph Wordsから再構成し、情報等価性を保証する。
論文 参考訳(メタデータ) (2024-02-04T12:29:40Z) - PockEngine: Sparse and Efficient Fine-tuning in a Pocket [62.955793932377524]
さまざまなエッジデバイスで微調整が可能な,小型でスパースで効率的なエンジンであるPockEngineを紹介します。
PockEngineはスパースバックプロパゲーションをサポートし、測定メモリの節約とレイテンシの削減でモデルをスパース更新する。
注目すべきなのは、PockEngineはNVIDIA Jetson AGX OrinのLLaMav2-7Bを550トークン/秒で微調整できることだ。
論文 参考訳(メタデータ) (2023-10-26T19:46:11Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Boosting Graph Embedding on a Single GPU [3.093890460224435]
大規模グラフを最小限のハードウェア制約で埋め込むためのGPUベースのツールであるGOSHを提案する。
更新の影響を高め、埋め込み作業を最小限にするため、新しいグラフ粗化アルゴリズムを採用している。
また、任意の任意の大きなグラフを単一のGPUで埋め込むことができる分解スキーマも組み込まれている。
論文 参考訳(メタデータ) (2021-10-19T15:25:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。