論文の概要: A Novel Differentiable Loss Function for Unsupervised Graph Neural
Networks in Graph Partitioning
- arxiv url: http://arxiv.org/abs/2312.06877v1
- Date: Mon, 11 Dec 2023 23:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 18:00:20.709888
- Title: A Novel Differentiable Loss Function for Unsupervised Graph Neural
Networks in Graph Partitioning
- Title(参考訳): グラフ分割における教師なしグラフニューラルネットワークの新たな微分損失関数
- Authors: Vivek Chaudhary
- Abstract要約: グラフ分割問題はNPハードプロブレムとして認識される。
グラフ分割問題を解決するために,教師なしグラフニューラルネットワークを用いた新しいパイプラインを導入する。
我々は、現代の最先端技術に対する我々の方法論を厳格に評価し、メトリクス(カットとバランス)に重点を置いています。
- 参考スコア(独自算出の注目度): 5.22145960878624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore the graph partitioning problem, a pivotal
combina-torial optimization challenge with extensive applications in various
fields such as science, technology, and business. Recognized as an NP-hard
prob-lem, graph partitioning lacks polynomial-time algorithms for its
resolution. Recently, there has been a burgeoning interest in leveraging
machine learn-ing, particularly approaches like supervised, unsupervised, and
reinforce-ment learning, to tackle such NP-hard problems. However, these
methods face significant hurdles: supervised learning is constrained by the
necessity of labeled solution instances, which are often computationally
impractical to obtain; reinforcement learning grapples with instability in the
learning pro-cess; and unsupervised learning contends with the absence of a
differentia-ble loss function, a consequence of the discrete nature of most
combinatorial optimization problems. Addressing these challenges, our research
introduces a novel pipeline employing an unsupervised graph neural network to
solve the graph partitioning problem. The core innovation of this study is the
for-mulation of a differentiable loss function tailored for this purpose. We
rigor-ously evaluate our methodology against contemporary state-of-the-art
tech-niques, focusing on metrics: cuts and balance, and our findings reveal
that our is competitive with these leading methods.
- Abstract(参考訳): 本稿では,グラフ分割問題,科学,技術,ビジネスなど,さまざまな分野の幅広い応用にともなう中心的な組合せ論理的最適化問題について検討する。
NPハードプロブレムとして認識されるグラフ分割は、その分解能に対する多項式時間アルゴリズムを欠いている。
近年, 機械学習, 特に教師なし, 教師なし, 強化学習といった手法を応用して, このようなNP困難に対処することへの関心が高まっている。
しかし、教師あり学習は、しばしば計算上は実用的でないラベル付き解インスタンスの必要性、学習プロセサにおける不安定な強化学習グリップル、教師なし学習は、多くの組合せ最適化問題の離散的性質の結果として、微分可能損失関数がないことに抵抗する、という大きな障害に直面している。
そこで本研究では,教師なしグラフニューラルネットワークを用いて,グラフ分割問題を解く新しいパイプラインを提案する。
この研究の核となる革新は、この目的のために調整された微分可能損失関数のフォミュレーションである。
我々は、現代の最先端技術に対する私たちの方法論を厳格に評価し、メトリクスの削減とバランスに重点を置いています。
関連論文リスト
- Spatio-spectral graph neural operator for solving computational mechanics problems on irregular domain and unstructured grid [0.9208007322096533]
本稿では空間GNNとスペクトルGNNを効果的に統合した空間スペクトルグラフニューラル演算子(Sp$2$GNO)を提案する。
このフレームワークは個々のメソッドの制限を緩和し、任意の測地をまたいだ解演算子の学習を可能にする。
論文 参考訳(メタデータ) (2024-09-01T03:59:40Z) - Decision-focused Graph Neural Networks for Combinatorial Optimization [62.34623670845006]
最適化問題に取り組むための新たな戦略は、従来のアルゴリズムに代わるグラフニューラルネットワーク(GNN)の採用である。
GNNや従来のアルゴリズムソルバがCOの領域で人気が高まっているにもかかわらず、それらの統合利用とエンドツーエンドフレームワークにおけるそれらの相関について限定的な研究がなされている。
我々は、GNNを利用してCO問題に補助的なサポートで対処する決定に焦点を当てたフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-05T22:52:27Z) - Graph Reinforcement Learning for Combinatorial Optimization: A Survey and Unifying Perspective [6.199818486385127]
我々は、強化学習の試行錯誤パラダイムを用いて、より良い意思決定戦略を発見する。
この研究は、パフォーマンスアルゴリズムが典型的に知られていない非標準グラフ問題に焦点を当てている。
論文 参考訳(メタデータ) (2024-04-09T17:45:25Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Contextual Model Aggregation for Fast and Robust Federated Learning in
Edge Computing [88.76112371510999]
フェデレーション学習は、ネットワークエッジにおける分散機械学習の第一候補である。
既存のアルゴリズムは、性能の緩やかな収束や堅牢性の問題に直面している。
そこで本稿では,損失低減に対する最適コンテキスト依存境界を実現するためのコンテキストアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T21:42:31Z) - A Differentiable Approach to Combinatorial Optimization using Dataless
Neural Networks [20.170140039052455]
我々は、ソリューションを生成するニューラルネットワークのトレーニングにデータを必要としないという、根本的に異なるアプローチを提案する。
特に、最適化問題をニューラルネットワークに還元し、データレストレーニングスキームを用いて、それらのパラメータが関心の構造をもたらすように、ネットワークのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-15T19:21:31Z) - Unsupervised Learning for Robust Fitting:A Reinforcement Learning
Approach [25.851792661168698]
堅牢なモデルフィッティングを解決するための新しいフレームワークを紹介します。
他の方法とは異なり、私たちの仕事は基本的な入力機能に無知です。
実験により,本手法が既存の学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-03-05T07:14:00Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z) - Graph Minors Meet Machine Learning: the Power of Obstructions [0.90238471756546]
ニューラルネットワークのトレーニングに閉塞を用いることの有用性を示す。
実験により、障害のあるトレーニングによって収束に必要なイテレーションの数が大幅に減少することが示された。
論文 参考訳(メタデータ) (2020-06-08T15:40:04Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。