論文の概要: Hybrid DCOP Solvers: Boosting Performance of Local Search Algorithms
- arxiv url: http://arxiv.org/abs/2009.02240v1
- Date: Fri, 4 Sep 2020 15:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 02:18:11.853952
- Title: Hybrid DCOP Solvers: Boosting Performance of Local Search Algorithms
- Title(参考訳): ハイブリッドDCOP解法:局所探索アルゴリズムの性能向上
- Authors: Cornelis Jan van Leeuwen and Przemyz{\l}aw Pawe{\l}czak
- Abstract要約: 本稿では,非対称分散制約最適化問題(DCOP)の解法を提案する。
DCOPソルバを高速な非イテレーティブなDCOPソルバで初期化する。
既存のDCOPソルバの開始条件の変更は,アルゴリズム収束時間を最大50%短縮するだけでなく,通信オーバーヘッドを低減し,解の質の向上につながることを示す。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel method for expediting both symmetric and asymmetric
Distributed Constraint Optimization Problem (DCOP) solvers. The core idea is
based on initializing DCOP solvers with greedy fast non-iterative DCOP solvers.
This is contrary to existing methods where initialization is always achieved
using a random value assignment. We empirically show that changing the starting
conditions of existing DCOP solvers not only reduces the algorithm convergence
time by up to 50\%, but also reduces the communication overhead and leads to a
better solution quality. We show that this effect is due to structural
improvements in the variable assignment, which is caused by the spreading
pattern of DCOP algorithm activation.) /Subject (Hybrid DCOPs)
- Abstract(参考訳): 本稿では,対称および非対称分散制約最適化問題(dcop)の解法を提案する。
DCOPソルバを高速な非イテレーティブなDCOPソルバで初期化する。
これは、初期化が常にランダム値割当を使って達成される既存の方法とは逆である。
我々は,既存のDCOPソルバの開始条件を変更することで,アルゴリズム収束時間を最大50%短縮するだけでなく,通信オーバーヘッドを低減し,解の質を向上させることを実証的に示す。
この効果は、DCOPアルゴリズムのアクティベーションの拡散パターンに起因する可変代入の構造的改善によるものであることを示す。
)/Subject (Hybrid DCOPs)
関連論文リスト
- Faster WIND: Accelerating Iterative Best-of-$N$ Distillation for LLM Alignment [81.84950252537618]
本稿では,反復的BONDと自己プレイアライメントの統一的なゲーム理論接続を明らかにする。
WINレート支配(WIN rate Dominance, WIND)という新しいフレームワークを構築し, 正規化利率支配最適化のためのアルゴリズムを多数提案する。
論文 参考訳(メタデータ) (2024-10-28T04:47:39Z) - Fully First-Order Methods for Decentralized Bilevel Optimization [17.20330936572045]
本稿では,エージェントが隣人とのみ通信する分散二段階最適化(DSBO)に焦点を当てる。
本稿では,既存の作品に広く採用されている2次オラクルよりもはるかに安価な1次オラクルのみを必要とする新しいアルゴリズムである,分散グラディエントDescent and Ascent with Gradient Tracking (DSGDA-GT)を提案する。
論文 参考訳(メタデータ) (2024-10-25T06:11:43Z) - An Optimization-based Deep Equilibrium Model for Hyperspectral Image
Deconvolution with Convergence Guarantees [71.57324258813675]
本稿では,ハイパースペクトル画像のデコンボリューション問題に対処する新しい手法を提案する。
新しい最適化問題を定式化し、学習可能な正規化器をニューラルネットワークの形で活用する。
導出した反復解法は、Deep Equilibriumフレームワーク内の不動点計算問題として表現される。
論文 参考訳(メタデータ) (2023-06-10T08:25:16Z) - DR-DSGD: A Distributionally Robust Decentralized Learning Algorithm over
Graphs [54.08445874064361]
本稿では,分散環境下での正規化された分散ロバストな学習問題を解くことを提案する。
Kullback-Liebler正規化関数をロバストなmin-max最適化問題に追加することにより、学習問題を修正されたロバストな問題に還元することができる。
提案アルゴリズムは, 最低分布検定精度を最大10%向上できることを示す。
論文 参考訳(メタデータ) (2022-08-29T18:01:42Z) - Pretrained Cost Model for Distributed Constraint Optimization Problems [37.79733538931925]
分散制約最適化問題(DCOP)は、最適化問題の重要なサブクラスである。
本稿では,DCOPのための新しい非巡回グラフスキーマ表現を提案し,グラフ表現を組み込むためにグラフ注意ネットワーク(GAT)を利用する。
我々のモデルであるGAT-PCMは、幅広いDCOPアルゴリズムを向上するために、オフラインで最適なラベル付きデータで事前訓練される。
論文 参考訳(メタデータ) (2021-12-08T09:24:10Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - A Particle Swarm Inspired Approach for Continuous Distributed Constraint
Optimization Problems [7.512486812178571]
連続DCOPは連続変数で問題を明示的にモデル化することができる。
C-DCOPを解くための最先端のアプローチは、面倒なメモリか計算オーバーヘッドのいずれかを経験する。
そこで我々は,Particle Swarm Optimization(PSO)にインスパイアされた新しいC-DCOPアルゴリズム,すなわちParticle Swarm Optimization Based C-DCOP(PCD)を提案する。
論文 参考訳(メタデータ) (2020-10-20T11:04:47Z) - On Population-Based Algorithms for Distributed Constraint Optimization
Problems [12.21350091202884]
我々は、人口ベースのアルゴリズムとして広く呼ばれる、新しい不完全アルゴリズムのクラスについて研究する。
最初のアプローチであるAnytime Evolutionary DCOP(AED)は、進化最適化メタヒューリスティックを利用してDCOPを解く。
第2のコントリビューションでは、人口ベースのアプローチと局所的な検索アプローチを組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-09-02T06:39:30Z) - AP-Loss for Accurate One-Stage Object Detection [49.13608882885456]
一段階の物体検出器は、分類損失と局所化損失を同時に最適化することによって訓練される。
前者は、多数のアンカーのため、非常に前景と後方のアンカーの不均衡に悩まされる。
本稿では,一段検知器の分類タスクをランキングタスクに置き換える新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-08-17T13:22:01Z) - Learning Optimal Temperature Region for Solving Mixed Integer Functional
DCOPs [26.16778095954815]
分散制約最適化問題(DCOP)と機能DCOP(F-DCOP)を組み合わせる。
次に、DPSA(Distributed Parallel Simulated Annealing)という新しいアルゴリズムを提案する。
DPSAは, 現状の非現実的アルゴリズムよりも高い品質の解を, 対応する設定で生成することを示す。
論文 参考訳(メタデータ) (2020-02-27T09:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。