論文の概要: Distributed Task Management in the Heterogeneous Fog: A Socially Concave
Bandit Game
- arxiv url: http://arxiv.org/abs/2203.14572v1
- Date: Mon, 28 Mar 2022 08:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 17:44:41.055759
- Title: Distributed Task Management in the Heterogeneous Fog: A Socially Concave
Bandit Game
- Title(参考訳): 不均質なフォッグにおける分散タスクマネジメント : 社会的にコンケーブなバンディットゲーム
- Authors: Xiaotong Cheng and Setareh Maghsudi
- Abstract要約: フォグコンピューティングは、モバイルユーザーの爆発的な計算需要に対する潜在的な解決策として現れてきた。
大きな可能性にもかかわらず、霧ネットワークの性能を最適化することはしばしば困難である。
不確実性を考慮した不均一なフォグコンピューティングネットワークにおける分散タスク割り当て問題について検討する。
- 参考スコア(独自算出の注目度): 7.708904950194129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fog computing has emerged as a potential solution to the explosive
computational demand of mobile users. This potential mainly stems from the
capacity of task offloading and allocation at the network edge, which reduces
the delay and improves the quality of service. Despite the significant
potential, optimizing the performance of a fog network is often challenging. In
the fog architecture, the computing nodes are heterogeneous smart devices with
distinct abilities and capacities, thereby, preferences. Besides, in an
ultra-dense fog network with random task arrival, centralized control results
in excessive overhead, and therefore, it is not feasible. We study a
distributed task allocation problem in a heterogeneous fog computing network
under uncertainty. We formulate the problem as a social-concave game, where the
players attempt to minimize their regret on the path to Nash equilibrium. To
solve the formulated problem, we develop two no-regret decision-making
strategies. One strategy, namely bandit gradient ascent with momentum, is an
online convex optimization algorithm with bandit feedback. The other strategy,
Lipschitz Bandit with Initialization, is an EXP3 multi-armed bandit algorithm.
We establish a regret bound for both strategies and analyze their convergence
characteristics. Moreover, we compare the proposed strategies with a
centralized allocation strategy named Learning with Linear Rewards. Theoretical
and numerical analysis shows the superior performance of the proposed
strategies for efficient task allocation compared to the state-of-the-art
methods.
- Abstract(参考訳): フォグコンピューティングは、モバイルユーザーの爆発的な計算需要に対する潜在的な解決策として登場した。
このポテンシャルは主に、ネットワークエッジにおけるタスクのオフロードとアロケーションの能力に起因しており、遅延を低減し、サービスの品質を改善する。
大きな可能性にもかかわらず、霧ネットワークの性能を最適化することはしばしば困難である。
フォグアーキテクチャでは、計算ノードは異なる能力と能力を持つ異質のスマートデバイスであり、したがって好みである。
また、ランダムなタスク到着を伴う超高密度霧ネットワークでは、集中制御が過大なオーバーヘッドをもたらすため、実現不可能である。
不確実性下における異種フォグコンピューティングネットワークにおける分散タスク割り当て問題について検討する。
この問題をソーシャル・コンケーブゲームとして定式化し、プレイヤーはナッシュ均衡への道のりで後悔を最小化しようとする。
定式化問題を解決するため,我々は2つの無規制意思決定戦略を考案する。
一つの戦略、すなわちbandit gradient ascent with momentumは、banditフィードバックを伴うオンライン凸最適化アルゴリズムである。
もうひとつの戦略であるLipschitz Bandit with Initializationは、EXP3のマルチアームバンディットアルゴリズムである。
両戦略に対する後悔関係を確立し,その収束特性を解析する。
さらに,提案手法をLearning with Linear Rewardsという集中型アロケーション戦略と比較した。
理論的および数値解析により,提案手法は最先端手法と比較して効率的なタスク割当を行うための優れた性能を示す。
関連論文リスト
- Paths to Equilibrium in Games [6.812247730094933]
我々は、強化学習におけるポリシー更新に触発されたペアワイズ制約を満たす戦略の列について研究する。
我々の分析は、戦略的な更新を劣化させる報酬が、満足のいく道に沿って均衡に進むための鍵である、という直感的な洞察を明らかにした。
論文 参考訳(メタデータ) (2024-03-26T19:58:39Z) - Online Network Source Optimization with Graph-Kernel MAB [62.6067511147939]
大規模ネットワークにおける最適なソース配置をオンラインで学習するためのグラフカーネルマルチアームバンディットアルゴリズムであるGrab-UCBを提案する。
適応グラフ辞書モデルを用いて,ネットワークプロセスを記述する。
我々は、ネットワークパラメータに依存する性能保証を導出し、シーケンシャルな意思決定戦略の学習曲線にさらに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-07T15:03:42Z) - Towards Optimal Randomized Strategies in Adversarial Example Game [13.287949447721115]
敵対的なサンプル攻撃に対するディープニューラルネットワークモデルの脆弱性は、多くの人工知能アプリケーションにおいて実践的な課題である。
確率分布空間上の新しい無限次元連続時間フローを用いて問題をモデル化するFRATと呼ばれるアルゴリズムを提案する。
我々は、FRATの連続時間制限がディフェンダーとアタッカーによって形成されたゼロサムゲームにおいて混合ナッシュ平衡に収束することを証明する。
論文 参考訳(メタデータ) (2023-06-29T07:29:23Z) - Sampling-based Reactive Synthesis for Nondeterministic Hybrid Systems [20.0212772540119]
本稿では,非決定論的ハイブリッドシステムのためのサンプリング型戦略合成アルゴリズムを提案する。
我々は,ハイブリッドシステムの進化を,非決定主義が敵対的プレイヤーである2人プレイヤゲームとしてモデル化する。
目的は、敵プレイヤーのあらゆる可能な動きの下でゴールの満足度を保証する、勝利戦略 - 反応性(ロバスト)戦略を合成することである。
論文 参考訳(メタデータ) (2023-04-14T00:45:16Z) - Finding mixed-strategy equilibria of continuous-action games without
gradients using randomized policy networks [83.28949556413717]
グラデーションへのアクセスを伴わない連続アクションゲームのナッシュ平衡を近似的に計算する問題について検討する。
ニューラルネットワークを用いてプレイヤーの戦略をモデル化する。
本論文は、制約のない混合戦略と勾配情報のない一般的な連続アクションゲームを解決する最初の方法である。
論文 参考訳(メタデータ) (2022-11-29T05:16:41Z) - Mixed Strategies for Security Games with General Defending Requirements [37.02840909260615]
Stackelbergのセキュリティゲームはディフェンダーとアタッカーの間で行われ、ディフェンダーは複数のターゲットに限られたリソースを割り当てる必要がある。
そこで本研究では,ごく少数の戦略のみを用いる混合戦略を計算し,効率的な近似パチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-04-26T08:56:39Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Learning Generative Deception Strategies in Combinatorial Masking Games [27.2744631811653]
詐欺の1つの方法は、システムがどのように構成されているかに関する情報を隠蔽したり、マスキングしたりすることである。
本稿では,攻撃者側がマスクする属性のサブセットを選択するのに対して,攻撃者は攻撃を行うエクスプロイトを選択することで応答する,結果として生じるディフェンダー・アタックラー相互作用のゲーム理論モデルを提案する。
両プレイヤーの戦略をニューラルネットワークとして表現することにより,そのようなゲームを概ね解くための,新しい高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-23T20:42:44Z) - Online Adversarial Attacks [57.448101834579624]
我々は、実世界のユースケースで見られる2つの重要な要素を強調し、オンライン敵攻撃問題を定式化する。
まず、オンライン脅威モデルの決定論的変種を厳格に分析する。
このアルゴリズムは、現在の最良の単一しきい値アルゴリズムよりも、$k=2$の競争率を確実に向上させる。
論文 参考訳(メタデータ) (2021-03-02T20:36:04Z) - Online Markov Decision Processes with Aggregate Bandit Feedback [74.85532145498742]
本稿では,オンライン有限水平マルコフ決定過程の新たな変種について検討する。
各エピソードにおいて、学習者は、エピソードの選択した方針によって実現された軌道に沿って蓄積された損失を被り、総括的盗聴フィードバックを観察する。
我々の主な結果は計算効率のよいアルゴリズムで、$O(sqrtK)$ regret for this set, where $K$ is the number of episodes。
論文 参考訳(メタデータ) (2021-01-31T16:49:07Z) - Beyond UCB: Optimal and Efficient Contextual Bandits with Regression
Oracles [112.89548995091182]
我々は、文脈的帯域幅からオンライン回帰への、初めての普遍的で最適な削減を提供する。
我々のアルゴリズムは、実現可能性以上の分布仮定は必要とせず、コンテキストが逆選択された場合でも機能する。
論文 参考訳(メタデータ) (2020-02-12T11:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。