論文の概要: When GNNs meet symmetry in ILPs: an orbit-based feature augmentation approach
- arxiv url: http://arxiv.org/abs/2501.14211v1
- Date: Fri, 24 Jan 2025 03:33:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:55.296914
- Title: When GNNs meet symmetry in ILPs: an orbit-based feature augmentation approach
- Title(参考訳): ILPにおけるGNNの対称性--軌道上の特徴増強アプローチ
- Authors: Qian Chen, Lei Li, Qian Li, Jianghua Wu, Akang Wang, Ruoyu Sun, Xiaodong Luo, Tsung-Hui Chang, Qingjiang Shi,
- Abstract要約: 整数線形プログラム(ILP)の共通特性は対称性であり、基底となる問題構造を変更することなく変数を置換することができる。
古典的なGNNアーキテクチャは、予測精度を制限する対称変数の区別に苦慮している。
我々は、まず対称変数をグループ化し、次に離散的な一様分布から各群に対する拡張特徴をサンプリングする軌道ベースの拡張スキームを開発する。
- 参考スコア(独自算出の注目度): 32.718944771397666
- License:
- Abstract: A common characteristic in integer linear programs (ILPs) is symmetry, allowing variables to be permuted without altering the underlying problem structure. Recently, GNNs have emerged as a promising approach for solving ILPs. However, a significant challenge arises when applying GNNs to ILPs with symmetry: classic GNN architectures struggle to differentiate between symmetric variables, which limits their predictive accuracy. In this work, we investigate the properties of permutation equivariance and invariance in GNNs, particularly in relation to the inherent symmetry of ILP formulations. We reveal that the interaction between these two factors contributes to the difficulty of distinguishing between symmetric variables. To address this challenge, we explore the potential of feature augmentation and propose several guiding principles for constructing augmented features. Building on these principles, we develop an orbit-based augmentation scheme that first groups symmetric variables and then samples augmented features for each group from a discrete uniform distribution. Empirical results demonstrate that our proposed approach significantly enhances both training efficiency and predictive performance.
- Abstract(参考訳): 整数線形プログラム(ILP)の共通特性は対称性であり、基底となる問題構造を変更することなく変数を置換することができる。
近年、GNNはICPを解くための有望なアプローチとして現れている。
古典的なGNNアーキテクチャは、予測精度を制限する対称変数の区別に苦労する。
本稿では、GNNにおける置換同値と不変性の性質について、特にILP定式化の固有対称性に関して検討する。
これらの2つの因子間の相互作用が、対称変数の区別の難しさに寄与することを明らかにする。
この課題に対処するため,機能拡張の可能性を探り,拡張機能構築の指針としていくつかの原則を提案する。
これらの原理に基づいて、まず対称変数をグループ化し、次に離散的な一様分布から各グループに対する拡張特徴をサンプリングする軌道に基づく拡張スキームを開発する。
実験の結果,提案手法はトレーニング効率と予測性能の両方を大幅に向上させることが示された。
関連論文リスト
- Relative Representations: Topological and Geometric Perspectives [53.88896255693922]
相対表現はゼロショットモデルの縫合に対する確立されたアプローチである。
相対変換において正規化手順を導入し、非等方的再スケーリングや置換に不変となる。
第二に、クラス内のクラスタリングを促進するトポロジカル正規化損失である、微調整された相対表現におけるトポロジカルデシフィケーションの展開を提案する。
論文 参考訳(メタデータ) (2024-09-17T08:09:22Z) - Variational Inference Failures Under Model Symmetries: Permutation Invariant Posteriors for Bayesian Neural Networks [43.88179780450706]
重み空間置換対称性が変分推論に与える影響について検討する。
置換不変変分後部を構築するための対称対称性機構を考案する。
本研究は, 対称性分布が真の後部と厳密に適合していること, 元のELBO目標を用いてトレーニングできること, を示す。
論文 参考訳(メタデータ) (2024-08-10T09:06:34Z) - Relaxing Continuous Constraints of Equivariant Graph Neural Networks for Physical Dynamics Learning [39.25135680793105]
離散同変グラフニューラルネットワーク(DEGNN)を提案する。
具体的には、幾何学的特徴を置換不変な埋め込みに変換することによって、このような離散同変メッセージパッシングを構築することができることを示す。
DEGNNはデータ効率が良く、少ないデータで学習でき、観測不能な向きなどのシナリオをまたいで一般化できることを示す。
論文 参考訳(メタデータ) (2024-06-24T03:37:51Z) - Symmetry Breaking and Equivariant Neural Networks [17.740760773905986]
我々は「緩和された同注入」という新しい概念を導入する。
我々は、この緩和を同変多層パーセプトロン(E-MLP)に組み込む方法を示す。
対称性の破れの関連性は、様々な応用領域で議論される。
論文 参考訳(メタデータ) (2023-12-14T15:06:48Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - Exploiting symmetry in variational quantum machine learning [0.5541644538483947]
変分量子機械学習は、短期量子コンピュータの広範囲にわたる応用である。
我々は、標準ゲートセットが、目の前の問題の対称性を尊重する同変ゲートセットにどのように変換されるかを示す。
提案手法を,非自明な対称性を特徴とする2つの玩具問題に対してベンチマークし,一般化性能の大幅な向上を観察する。
論文 参考訳(メタデータ) (2022-05-12T17:01:41Z) - Deformation Robust Roto-Scale-Translation Equivariant CNNs [10.44236628142169]
グループ同変畳み込みニューラルネットワーク(G-CNN)は,固有対称性を持つ一般化性能を著しく向上させる。
G-CNNの一般的な理論と実践的実装は、回転またはスケーリング変換の下での平面画像に対して研究されている。
論文 参考訳(メタデータ) (2021-11-22T03:58:24Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z) - Inverse Learning of Symmetries [71.62109774068064]
2つの潜在部分空間からなるモデルで対称性変換を学ぶ。
我々のアプローチは、情報ボトルネックと連続的な相互情報正規化器の組み合わせに基づいています。
我々のモデルは, 人工的および分子的データセットにおける最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-02-07T13:48:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。