論文の概要: Reinforcement learning for graph theory, Parallelizing Wagner's approach
- arxiv url: http://arxiv.org/abs/2509.01607v1
- Date: Mon, 01 Sep 2025 16:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.781641
- Title: Reinforcement learning for graph theory, Parallelizing Wagner's approach
- Title(参考訳): グラフ理論の強化学習, ワグナーのアプローチの並列化
- Authors: Alix Bouffard, Jane Breen,
- Abstract要約: グラフのスペクトル半径の予測境界に関する反例を構築するために強化学習を適用した。
多数のユニークなモデルとアクション空間の再定義を同時に学習し、学習過程における現在の局所最適度の影響を調節する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our work applies reinforcement learning to construct counterexamples concerning conjectured bounds on the spectral radius of the Laplacian matrix of a graph. We expand upon the re-implementation of Wagner's approach by Stevanovic et al. with the ability to train numerous unique models simultaneously and a novel redefining of the action space to adjust the influence of the current local optimum on the learning process.
- Abstract(参考訳): 我々の研究は、グラフのラプラシア行列のスペクトル半径上の予想境界に関する反例を構築するために強化学習を適用した。
我々は,Stevanovicらによるワグナーのアプローチの再実装をさらに進めるとともに,多数のユニークなモデルを同時に訓練する能力と,現在の局所最適化が学習過程に与える影響を調整するために,アクション空間の再定義を行う。
関連論文リスト
- Spectral Bellman Method: Unifying Representation and Exploration in RL [54.71169912483302]
この研究は、価値に基づく強化学習のための表現を学習するための新しいフレームワークであるSpectral Bellman Representationを紹介する。
ベルマン力学と特徴共分散を整合させることにより,学習した表現が構造化された探索を可能にすることを示す。
我々のフレームワークは、自然に強力なマルチステップベルマン演算子に拡張され、その影響をさらに拡大します。
論文 参考訳(メタデータ) (2025-07-17T14:50:52Z) - Riemannian Manifold Learning for Stackelberg Games with Neural Flow Representations [7.830602875697329]
Stackelbergの汎用ゲームにおいて,オンライン学習のための新しいフレームワークを提案する。
このアプローチの中核は、共同作用空間を滑らかなリーマン多様体に写す学習微分同相である。
この写像は、ニューラル正規化フローによって促進され、トラクタブルなイソプラナー部分空間の形成を保証する。
論文 参考訳(メタデータ) (2025-02-08T09:10:44Z) - Distributional Bellman Operators over Mean Embeddings [37.5480897544168]
本研究では,帰還分布の有限次元平均埋め込みを学習し,分布強化学習のための新しい枠組みを提案する。
動的プログラミングと時間差学習のための新しいアルゴリズムをこのフレームワークに基づいて提案する。
論文 参考訳(メタデータ) (2023-12-09T11:36:14Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Combining Monte Carlo and Tensor-network Methods for Partial
Differential Equations via Sketching [1.3144299362395915]
テンソルネットワークを用いた高次元偏微分方程式の解法を提案する。
提案手法では,モンテカルロシミュレーションを用いて解を更新し,試料から新たな解をテンソルネットワークとして再推定する。
論文 参考訳(メタデータ) (2023-05-29T05:06:50Z) - Moving mirror-field dynamics under intrinsic decoherence [77.34726150561087]
鏡面相互作用における減衰ダイナミクスを本質的デコヒーレンススキームを用いて検討する。
得られた解に対して期待値,相関値,フシミ関数を示す。
論文 参考訳(メタデータ) (2023-05-06T03:41:45Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - A Free Lunch from the Noise: Provable and Practical Exploration for
Representation Learning [55.048010996144036]
ある雑音仮定の下では、対応するマルコフ遷移作用素の線型スペクトル特性を自由な閉形式で得られることを示す。
本稿では,スペクトルダイナミクス埋め込み(SPEDE)を提案する。これはトレードオフを破り,雑音の構造を利用して表現学習のための楽観的な探索を完遂する。
論文 参考訳(メタデータ) (2021-11-22T19:24:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。