論文の概要: Learning-Augmented Priority Queues
- arxiv url: http://arxiv.org/abs/2406.04793v2
- Date: Sun, 17 Nov 2024 21:13:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:30:10.976700
- Title: Learning-Augmented Priority Queues
- Title(参考訳): 学習の強化された優先順位待ち行列
- Authors: Ziyad Benomar, Christian Coester,
- Abstract要約: 学習強化フレームワークにおける優先度待ち行列の設計について検討する。
優先度待ち行列処理の性能を高めるために予測をどのように活用できるかを示す。
- 参考スコア(独自算出の注目度): 1.4425878137951234
- License:
- Abstract: Priority queues are one of the most fundamental and widely used data structures in computer science. Their primary objective is to efficiently support the insertion of new elements with assigned priorities and the extraction of the highest priority element. In this study, we investigate the design of priority queues within the learning-augmented framework, where algorithms use potentially inaccurate predictions to enhance their worst-case performance. We examine three prediction models spanning different use cases, and show how the predictions can be leveraged to enhance the performance of priority queue operations. Moreover, we demonstrate the optimality of our solution and discuss some possible applications.
- Abstract(参考訳): 優先度キューはコンピュータ科学において最も基本的で広く使われているデータ構造の一つである。
彼らの主な目的は、割り当てられた優先順位を持つ新しい要素の挿入と最優先要素の抽出を効率的に支援することである。
本研究では,アルゴリズムが不正確な予測を用いて最悪ケースの性能を向上させる学習拡張フレームワークにおける優先度待ち行列の設計について検討する。
異なるユースケースにまたがる3つの予測モデルについて検討し、優先度待ち行列処理の性能を高めるために予測をどのように活用できるかを示す。
さらに,本手法の最適性を実証し,いくつかの応用の可能性について論じる。
関連論文リスト
- Learning-Augmented Algorithms with Explicit Predictors [67.02156211760415]
アルゴリズム設計の最近の進歩は、過去のデータと現在のデータから得られた機械学習モデルによる予測の活用方法を示している。
この文脈における以前の研究は、予測器が過去のデータに基づいて事前訓練され、ブラックボックスとして使用されるパラダイムに焦点を当てていた。
本研究では,予測器を解き,アルゴリズムの課題の中で生じる学習問題を統合する。
論文 参考訳(メタデータ) (2024-03-12T08:40:21Z) - Learning Expressive Priors for Generalization and Uncertainty Estimation
in Neural Networks [77.89179552509887]
本稿では,ディープニューラルネットワークにおける一般化と不確実性推定を推し進める新しい事前学習手法を提案する。
キーとなる考え方は、ニューラルネットワークのスケーラブルで構造化された後部を、一般化を保証する情報的事前として活用することである。
本研究では,不確実性推定と一般化における本手法の有効性を徹底的に示す。
論文 参考訳(メタデータ) (2023-07-15T09:24:33Z) - Algorithms with Prediction Portfolios [23.703372221079306]
我々は、マッチング、ロードバランシング、非クレアボイラントスケジューリングなど、多くの基本的な問題に対する複数の予測器の使用について検討する。
これらの問題のそれぞれに対して、複数の予測器を利用する新しいアルゴリズムを導入し、その結果のパフォーマンスに限界を証明します。
論文 参考訳(メタデータ) (2022-10-22T12:58:07Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - RANK-NOSH: Efficient Predictor-Based Architecture Search via Non-Uniform
Successive Halving [74.61723678821049]
予算の浪費を回避するため,早期に性能の低いアーキテクチャのトレーニングを終了する階層的スケジューリングアルゴリズムであるNOn-uniform Successive Halving (NOSH)を提案する。
予測器に基づくアーキテクチャ探索をペア比較でランク付けする学習として定式化する。
その結果、RANK-NOSHは検索予算を5倍に削減し、様々な空間やデータセットにおける従来の最先端予測手法よりも、競争力やパフォーマンスの向上を実現した。
論文 参考訳(メタデータ) (2021-08-18T07:45:21Z) - Adaptive Inference through Early-Exit Networks: Design, Challenges and
Directions [80.78077900288868]
初期のネットワークの設計手法をその重要コンポーネントに分解し、各コンポーネントの最近の進歩を調査する。
我々は、他の効率的な推論ソリューションと早期に競合する立場をとり、この分野の研究における現在の課題と最も有望な今後の方向性についての洞察を提供する。
論文 参考訳(メタデータ) (2021-06-09T12:33:02Z) - Integrated Optimization of Predictive and Prescriptive Tasks [0.0]
予測タスクを記述タスクとして直接統合する新しいフレームワークを提案する。
予測アルゴリズムのパラメータを2レベル最適化技術により、処方問題内でトレーニングします。
論文 参考訳(メタデータ) (2021-01-02T02:43:10Z) - Expected Improvement versus Predicted Value in Surrogate-Based
Optimization [0.1529342790344802]
サーロゲートに基づく最適化は、次にどの点を評価するかを決定するために、いわゆるインフィル基準に依存する。
期待されている改善の人気は、実証的に検証された性能よりも理論上の特性に大きく依存していると論じる。
論文 参考訳(メタデータ) (2020-01-09T13:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。