論文の概要: JITuNE: Just-In-Time Hyperparameter Tuning for Network Embedding
Algorithms
- arxiv url: http://arxiv.org/abs/2101.06427v2
- Date: Tue, 19 Jan 2021 03:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 04:30:35.855440
- Title: JITuNE: Just-In-Time Hyperparameter Tuning for Network Embedding
Algorithms
- Title(参考訳): JITuNE: ネットワーク埋め込みアルゴリズムのためのジャストインタイムハイパーパラメータチューニング
- Authors: Mengying Guo, Tao Yi, Yuqing Zhu, Yungang Bao
- Abstract要約: ネットワーク埋め込み(NE)は、大規模ネットワークのための簡潔なノード表現を生成する。
我々は、NEアルゴリズムのためのジャストインタイムハイパーパラメータチューニングフレームワークJITuNEを提案する。
JITuNEはNEアルゴリズムの性能を大幅に向上させ、同数のアルゴリズム実行で最先端の手法を上回ります。
- 参考スコア(独自算出の注目度): 3.566099670771862
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Network embedding (NE) can generate succinct node representations for
massive-scale networks and enable direct applications of common machine
learning methods to the network structure. Various NE algorithms have been
proposed and used in a number of applications, such as node classification and
link prediction. NE algorithms typically contain hyperparameters that are key
to performance, but the hyperparameter tuning process can be time consuming. It
is desirable to have the hyperparameters tuned within a specified length of
time. Although AutoML methods have been applied to the hyperparameter tuning of
NE algorithms, the problem of how to tune hyperparameters in a given period of
time is not studied for NE algorithms before. In this paper, we propose JITuNE,
a just-in-time hyperparameter tuning framework for NE algorithms. Our JITuNE
framework enables the time-constrained hyperparameter tuning for NE algorithms
by employing the tuning over hierarchical network synopses and transferring the
knowledge obtained on synopses to the whole network. The hierarchical
generation of synopsis and a time-constrained tuning method enable the
constraining of overall tuning time. Extensive experiments demonstrate that
JITuNE can significantly improve performances of NE algorithms, outperforming
state-of-the-art methods within the same number of algorithm runs.
- Abstract(参考訳): ネットワーク埋め込み(NE)は、大規模ネットワークのための簡潔なノード表現を生成し、共通の機械学習手法をネットワーク構造に直接適用することができる。
ノード分類やリンク予測など,さまざまなアプリケーションでNEアルゴリズムが提案され,利用されている。
NEアルゴリズムは通常、パフォーマンスの鍵となるハイパーパラメータを含むが、ハイパーパラメータチューニングプロセスには時間がかかることがある。
ハイパーパラメータを指定された時間内にチューニングすることが望ましい。
NEアルゴリズムのハイパーパラメータチューニングにはAutoML法が適用されているが, NEアルゴリズムでは, 与えられた時間内にハイパーパラメータをチューニングする方法が研究されていない。
本稿では,NEアルゴリズムのためのジャストインタイムハイパーパラメータチューニングフレームワークJITuNEを提案する。
我々のJITuNEフレームワークは,階層型ネットワークシンプ上でのチューニングと,シンプ上で得られた知識をネットワーク全体に伝達することにより,NEアルゴリズムの時間制約ハイパーパラメータチューニングを可能にする。
シンプシスの階層的生成と時間制約のあるチューニング方法により、全体のチューニング時間を制約することができる。
大規模な実験により、JITuNEはNEアルゴリズムの性能を大幅に改善し、同じ数のアルゴリズムの実行内で最先端のメソッドより優れていることが示されている。
関連論文リスト
- Online Continuous Hyperparameter Optimization for Generalized Linear Contextual Bandits [55.03293214439741]
文脈的包帯では、エージェントは過去の経験に基づいた時間依存アクションセットから順次アクションを行う。
そこで本稿では,文脈的包帯のためのオンライン連続型ハイパーパラメータチューニングフレームワークを提案する。
理論上はサブ線形の後悔を達成でき、合成データと実データの両方において既存のすべての手法よりも一貫して優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-02-18T23:31:20Z) - Automating Nearest Neighbor Search Configuration with Constrained
Optimization [34.633003673080786]
本研究では、量子化に基づくANNアルゴリズムをチューニングするための制約付き最適化に基づくアプローチを提案する。
提案手法は,所望の検索コストやリコールを入力として処理し,実験的にParetoフロンティアに非常に近いチューニングを生成する。
論文 参考訳(メタデータ) (2023-01-04T16:56:36Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Controller-based Energy-Aware Wireless Sensor Network Routing using
Quantum Algorithms [15.607213703199209]
古典的なプロセッサの代わりに量子プロセッサを使うための証明法を示し、最適解や準最適解を迅速に見つける。
小さなネットワークに対する予備的な結果は、量子コンピューティングを用いたこのアプローチには大きな可能性があり、ネットワークアルゴリズムの有効性の他の重要な改善への扉を開く可能性があることを示している。
論文 参考訳(メタデータ) (2021-10-12T20:16:21Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Scalable Plug-and-Play ADMM with Convergence Guarantees [24.957046830965822]
広範に使われている変種を漸進的に提案する。
ADMMアルゴリズムにより、大規模データセットにスケーラブルになる。
理論的には,集合的明示的な仮定の下で収束アルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-05T04:10:15Z) - A Supervised Learning Algorithm for Multilayer Spiking Neural Networks
Based on Temporal Coding Toward Energy-Efficient VLSI Processor Design [2.6872737601772956]
スパイキングニューラルネットワーク(スパイキングニューラルネット、英: Spiking Neural Network、SNN)は、スパイクの形で情報を処理できる脳にインスパイアされた数学的モデルである。
時間符号化に基づくSNNのための新しい教師付き学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-08T03:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。