論文の概要: Balancing Symmetry and Efficiency in Graph Flow Matching
- arxiv url: http://arxiv.org/abs/2602.18084v1
- Date: Fri, 20 Feb 2026 09:17:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.277185
- Title: Balancing Symmetry and Efficiency in Graph Flow Matching
- Title(参考訳): グラフフローマッチングにおけるバランス対称性と効率性
- Authors: Benjamin Honoré, Alba Carballo-Castro, Yiming Qin, Pascal Frossard,
- Abstract要約: 厳密な等式と制御可能な対称性変調の間のグラフ生成モデルのトレードオフについて検討する。
対称性信号の適切な変調は収束を加速しながらオーバーフィッティングを遅らせることを示す。
- 参考スコア(独自算出の注目度): 33.80974796363154
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equivariance is central to graph generative models, as it ensures the model respects the permutation symmetry of graphs. However, strict equivariance can increase computational cost due to added architectural constraints, and can slow down convergence because the model must be consistent across a large space of possible node permutations. We study this trade-off for graph generative models. Specifically, we start from an equivariant discrete flow-matching model, and relax its equivariance during training via a controllable symmetry modulation scheme based on sinusoidal positional encodings and node permutations. Experiments first show that symmetry-breaking can accelerate early training by providing an easier learning signal, but at the expense of encouraging shortcut solutions that can cause overfitting, where the model repeatedly generates graphs that are duplicates of the training set. On the contrary, properly modulating the symmetry signal can delay overfitting while accelerating convergence, allowing the model to reach stronger performance with $19\%$ of the baseline training epochs.
- Abstract(参考訳): 等分散はグラフ生成モデルの中心であり、そのモデルがグラフの置換対称性を尊重することを保証する。
しかし、厳密な等式はアーキテクチャ上の制約が加えられたために計算コストを増大させ、モデルをノード置換可能な大きな空間にわたって一貫性を持たなければならないため収束を遅くすることができる。
グラフ生成モデルのトレードオフについて検討する。
具体的には、等変離散フローマッチングモデルから始め、正弦波位置エンコーディングとノード置換に基づく制御可能な対称性変調スキームにより、トレーニング中にその等式を緩和する。
実験はまず、対称性の破れは学習の容易な信号を提供することで早期トレーニングを加速するが、過適合を引き起こすショートカットソリューションを奨励するためには、モデルがトレーニングセットの重複グラフを繰り返し生成する。
反対に、対称性信号の適切な変調は収束を加速しながら過度な適合を遅らせる可能性があり、ベースライントレーニングのエポックの19.%でモデルがより強力な性能に達することができる。
関連論文リスト
- Rethinking Diffusion Models with Symmetries through Canonicalization with Applications to Molecular Graph Generation [56.361076943802594]
CanonFlowは、挑戦的なGEOM-DRUGデータセット上で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2026-02-16T18:58:55Z) - Learning Time-Varying Graphs from Incomplete Graph Signals [1.7430416823420511]
グラフから欠落したデータを出力する問題を解くために,効率的な交互方向乗算アルゴリズムを開発した。
提案したADMMスキームが収束し,定常点を導出することを示す。
論文 参考訳(メタデータ) (2025-10-19T11:12:13Z) - Implicit Augmentation from Distributional Symmetry in Turbulence Super-Resolution [2.4095472682599417]
標準的な畳み込みニューラルネットワーク(CNN)は、明示的な拡張や特殊なアーキテクチャを使わずに部分的に回転対称性を得られることを示す。
異方性が異なる3次元チャネルフローを用いて、より等方性中間平面データに基づいてトレーニングされたモデルが、より低い等方性誤差を実現する。
これらの結果は, 回転対称性が学習アルゴリズムに明示的に組み込まれなければならないこと, 乱流から直接得られることを明らかにする。
論文 参考訳(メタデータ) (2025-09-25T02:31:56Z) - Learning (Approximately) Equivariant Networks via Constrained Optimization [25.51476313302483]
等価ニューラルネットワークは、そのアーキテクチャを通して対称性を尊重するように設計されている。
実世界のデータは、ノイズ、構造的変動、測定バイアス、その他の対称性を破る効果のために、しばしば完全対称性から逸脱する。
適応制約等分散(ACE)は、柔軟で非等価なモデルから始まる制約付き最適化手法である。
論文 参考訳(メタデータ) (2025-05-19T18:08:09Z) - Rao-Blackwell Gradient Estimators for Equivariant Denoising Diffusion [55.95767828747407]
分子やタンパク質の生成のようなドメインでは、物理系はモデルにとって重要な固有の対称性を示す。
学習のばらつきを低減し、確率的に低い分散勾配推定器を提供するフレームワークを提案する。
また,軌道拡散法(Orbit Diffusion)と呼ばれる手法を用いて,損失とサンプリングの手順を取り入れた推定器の実用的実装を提案する。
論文 参考訳(メタデータ) (2025-02-14T03:26:57Z) - Equivariant Denoisers Cannot Copy Graphs: Align Your Graph Diffusion Models [24.912841472542322]
グラフ生成モデリングにおいて支配的なグラフ拡散モデルは、グラフからグラフへの変換タスクにおいて未探索のままである。
本研究では,アライメントが離散拡散モデルの性能を5%から54.7%まで劇的に向上させることを示す。
論文 参考訳(メタデータ) (2024-05-27T20:57:19Z) - Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - Sparse Training of Discrete Diffusion Models for Graph Generation [45.103518022696996]
SparseDiffは、ほとんど全ての大きなグラフがスパースであるという観察に基づく、新しい拡散モデルである。
エッジのサブセットを選択することで、SparseDiffは、ノイズ発生過程とノイズ発生ネットワーク内のスパースグラフ表現を効果的に活用する。
本モデルでは,小規模・大規模両方のデータセットにおいて,複数のメトリクスにわたる最先端性能を示す。
論文 参考訳(メタデータ) (2023-11-03T16:50:26Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Score-based Generative Modeling of Graphs via the System of Stochastic
Differential Equations [57.15855198512551]
本稿では,連続時間フレームワークを用いたグラフのスコアベース生成モデルを提案する。
本手法は, トレーニング分布に近い分子を生成できるが, 化学価数則に違反しないことを示す。
論文 参考訳(メタデータ) (2022-02-05T08:21:04Z) - Permutation Invariant Graph Generation via Score-Based Generative
Modeling [114.12935776726606]
本稿では,最近のスコアベース生成モデルを用いて,グラフモデリングにおける置換不変手法を提案する。
特に、入力グラフにおけるデータ分布の勾配をモデル化するために、置換同変のマルチチャネルグラフニューラルネットワークを設計する。
グラフ生成では、我々の学習アプローチはベンチマークデータセット上の既存のモデルよりも良い、あるいは同等の結果を得る。
論文 参考訳(メタデータ) (2020-03-02T03:06:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。