論文の概要: Multi-layered Network Exploration via Random Walks: From Offline
Optimization to Online Learning
- arxiv url: http://arxiv.org/abs/2106.05065v1
- Date: Wed, 9 Jun 2021 13:35:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:25:01.625088
- Title: Multi-layered Network Exploration via Random Walks: From Offline
Optimization to Online Learning
- Title(参考訳): ランダムウォークによる多層ネットワーク探索:オフライン最適化からオンライン学習へ
- Authors: Xutong Liu, Jinhang Zuo, Xiaowei Chen, Wei Chen, John C.S. Lui
- Abstract要約: マルチレイヤネットワーク探索(MuLaNE)問題は、多くのアプリケーションから抽象化された重要な問題である。
MuLaNEには複数のネットワーク層があり、各ノードは重みを持ち、各レイヤはランダムウォークによって探索される。
オフライン最適化からオンライン学習まで,この問題を体系的に研究する。
- 参考スコア(独自算出の注目度): 33.450042829375086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-layered network exploration (MuLaNE) problem is an important problem
abstracted from many applications. In MuLaNE, there are multiple network layers
where each node has an importance weight and each layer is explored by a random
walk. The MuLaNE task is to allocate total random walk budget $B$ into each
network layer so that the total weights of the unique nodes visited by random
walks are maximized. We systematically study this problem from offline
optimization to online learning. For the offline optimization setting where the
network structure and node weights are known, we provide greedy based
constant-ratio approximation algorithms for overlapping networks, and greedy or
dynamic-programming based optimal solutions for non-overlapping networks. For
the online learning setting, neither the network structure nor the node weights
are known initially. We adapt the combinatorial multi-armed bandit framework
and design algorithms to learn random walk related parameters and node weights
while optimizing the budget allocation in multiple rounds, and prove that they
achieve logarithmic regret bounds. Finally, we conduct experiments on a
real-world social network dataset to validate our theoretical results.
- Abstract(参考訳): 多層ネットワーク探索(mulane)問題は、多くのアプリケーションから抽象化された重要な問題である。
MuLaNEには複数のネットワーク層があり、各ノードは重みを持ち、各レイヤはランダムウォークによって探索される。
mulaneタスクは、ランダムウォークによって訪問される一意ノードの総重量を最大化するために、各ネットワーク層に合計ランダムウォーク予算$b$を割り当てることである。
我々はこの問題をオフライン最適化からオンライン学習まで体系的に研究する。
ネットワーク構造とノード重みが知られているオフライン最適化設定のために,重なり合うネットワークに対するgreedy based constant-ratio approximationアルゴリズムと,重複しないネットワークに対するgreedyまたはdynamic-programming based optimal solutionsを提供する。
オンライン学習設定では、ネットワーク構造やノード重みは当初は知られていない。
我々は,複数ラウンドの予算配分を最適化しながらランダムウォーク関連パラメータとノード重み付けを学習し,対数的後悔境界を達成できることを示すために,組合せ型マルチアームバンディットフレームワークと設計アルゴリズムを適用した。
最後に,実世界のソーシャルネットワークデータセットを用いて理論的結果を検証する実験を行った。
関連論文リスト
- Why Line Search when you can Plane Search? SO-Friendly Neural Networks allow Per-Iteration Optimization of Learning and Momentum Rates for Every Layer [9.849498498869258]
我々は、実際に使用されるいくつかのモデルを含む、SOフレンドリーなニューラルネットワークのクラスを紹介する。
ステップサイズを設定するために正確な行探索を行う場合、固定学習を使用する場合と同じコストがかかる。
同じコストで、各ステップでの学習率と運動量率を設定するために、プレーン検索が使用できる。
論文 参考訳(メタデータ) (2024-06-25T22:06:40Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Entanglement Routing Based on Fidelity Curves [0.0]
本稿では,各リンクが絡み合い発生率と忠実度とのトレードオフによって特徴づけられる量子ネットワークについて考察する。
絡み合ったキュービットを一度に1つずつ分散する2つの絡み合った分布モデルと、多数の絡み合ったキュービットを同時に分散するフローモデルを考える。
論文 参考訳(メタデータ) (2023-03-22T18:59:36Z) - Combining Optimal Path Search With Task-Dependent Learning in a Neural
Network [4.1712273169097305]
コスト値をシナプス重みに変換することにより,経路探索問題のニューラルネットワーク表現を定義することができることを示す。
ネットワーク学習機構は, ネットワーク内の重みを手作業に応じて強化し, ネットワークの重み付けに適応できることを示す。
論文 参考訳(メタデータ) (2022-01-26T18:29:00Z) - Layer Adaptive Node Selection in Bayesian Neural Networks: Statistical
Guarantees and Implementation Details [0.5156484100374059]
スパースディープニューラルネットワークは、大規模研究において予測モデル構築に効率的であることが証明されている。
本稿では,スパイク・アンド・スラブ型ガウス先行法を用いて,訓練中のノード選択を可能にするベイズスパース解を提案する。
本研究は, 先行パラメータのキャラクタリゼーションとともに, 変動的後続一貫性の基本的な結果を確立する。
論文 参考訳(メタデータ) (2021-08-25T00:48:07Z) - Learning Autonomy in Management of Wireless Random Networks [102.02142856863563]
本稿では,任意の数のランダム接続ノードを持つ無線ネットワークにおいて,分散最適化タスクに取り組む機械学習戦略を提案する。
我々は,ネットワークトポロジとは無関係に,前方および後方に計算を行う分散メッセージパスニューラルネットワーク(DMPNN)と呼ばれる,柔軟な深層ニューラルネットワーク形式を開発した。
論文 参考訳(メタデータ) (2021-06-15T09:03:28Z) - Joint Coding and Scheduling Optimization for Distributed Learning over
Wireless Edge Networks [21.422040036286536]
この記事では、符号化コンピューティングとディープデュエルニューラルネットワークアーキテクチャの最近の進歩を活用することで、問題を解決する。
コード化された構造/冗長性を導入することで、ノードをつまずくのを待つことなく、分散学習タスクを完了することができる。
シミュレーションでは、提案されたフレームワークは、他のDLアプローチと比較して、無線エッジコンピューティングの平均学習遅延を最大66%削減する。
論文 参考訳(メタデータ) (2021-03-07T08:57:09Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。