論文の概要: Towards Safer Heuristics With XPlain
- arxiv url: http://arxiv.org/abs/2410.15086v1
- Date: Sat, 19 Oct 2024 12:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:19:39.746288
- Title: Towards Safer Heuristics With XPlain
- Title(参考訳): XPlainによる安全なヒューリスティックスを目指して
- Authors: Pantea Karimi, Solal Pirelli, Siva Kesava Reddy Kakarla, Ryan Beckett, Santiago Segarra, Beibin Li, Pooria Namyar, Behnaz Arzani,
- Abstract要約: ヒューリスティックアナライザは、オペレーターがいつ、なぜパフォーマンスが悪いのかを見つけることができる。
XPlainは、これらのアナライザを拡張し、オペレーターがいつ、なぜパフォーマンスが悪いのかを理解するのに役立つツールである。
- 参考スコア(独自算出の注目度): 24.2118567408796
- License:
- Abstract: Many problems that cloud operators solve are computationally expensive, and operators often use heuristic algorithms (that are faster and scale better than optimal) to solve them more efficiently. Heuristic analyzers enable operators to find when and by how much their heuristics underperform. However, these tools do not provide enough detail for operators to mitigate the heuristic's impact in practice: they only discover a single input instance that causes the heuristic to underperform (and not the full set), and they do not explain why. We propose XPlain, a tool that extends these analyzers and helps operators understand when and why their heuristics underperform. We present promising initial results that show such an extension is viable.
- Abstract(参考訳): クラウドオペレーターが解く多くの問題は計算コストが高く、オペレーターはより効率的に解くためにヒューリスティックアルゴリズム(最適よりも高速でスケールが良い)を使うことが多い。
ヒューリスティック・アナライザは、オペレーターがいつ、どのくらいヒューリスティックが不十分かを見つけることができる。
しかし、これらのツールは、作用素が実際にヒューリスティックの影響を軽減するのに十分な詳細を提供していない。
XPlainは,これらのアナライザを拡張したツールで,操作者がいつ,なぜヒューリスティックスが不十分であるかを理解するのに役立つ。
このような拡張が実現可能であることを示す有望な初期結果を示す。
関連論文リスト
- Operator Feature Neural Network for Symbolic Regression [11.341249704023687]
本稿では,演算子表現を用いた演算子特徴ニューラルネットワーク(OF-Net)を提案する。
演算子の特徴を数値損失に置き換えることで,対象表現の演算子の組み合わせを予測することができる。
提案手法を公開データセット上で評価した結果,より優れた回復率と高いR2$スコアが得られた。
論文 参考訳(メタデータ) (2024-08-14T09:47:13Z) - Inverse Reinforcement Learning with Sub-optimal Experts [56.553106680769474]
与えられた専門家の集合と互換性のある報酬関数のクラスの理論的性質について検討する。
以上の結果から,複数の準最適専門家の存在が,相反する報酬の集合を著しく減少させる可能性が示唆された。
我々は,最適なエージェントの1つに十分近い準最適専門家のパフォーマンスレベルが最適である場合に,最小限の最適化を行う一様サンプリングアルゴリズムを解析する。
論文 参考訳(メタデータ) (2024-01-08T12:39:25Z) - Utilitarian Algorithm Configuration [19.018182447704977]
エンドユーザーに提供されるユーティリティを最大化するためにアルゴリズムを設定するための最初の非自明な手順を示す。
また, 実用目的は, アルゴリズム的メリットも有意であることを示す。
論文 参考訳(メタデータ) (2023-10-31T12:23:24Z) - Merging Experts into One: Improving Computational Efficiency of Mixture
of Experts [71.44422347502409]
スパースミキチャー・オブ・エキスパート(MoE)は、パラメータの小さなサブセットをアクティベートすることでコストを削減することができる。
計算コストを大幅に高めることなく、より多くの専門家を追加するという利点を維持できるだろうか?
そこで我々は,textbftexttMerging Experts into One (MEO) という計算効率のよい手法を提案する。
論文 参考訳(メタデータ) (2023-10-15T13:28:42Z) - On Using Admissible Bounds for Learning Forward Search Heuristics [9.749638953163391]
学習において,受理者が提供する情報を効果的に活用する方法に焦点をあてる。
学習対象は、学習対象ではなく、この分布の下位境界として、許容値が使用される、切り裂かれたssianとしてモデル化する。
その結果,提案手法はトレーニング中により高速に収束し,より優れたガウスが得られることがわかった。
論文 参考訳(メタデータ) (2023-08-23T04:14:45Z) - Speed-Oblivious Online Scheduling: Knowing (Precise) Speeds is not
Necessary [71.46673478666631]
我々は、無関係な(異種な)マシン上でのオンラインスケジューリングを、高速な環境で検討する。
透かしアルゴリズムと非透かしアルゴリズムでは,強い可視性を示す。
論文 参考訳(メタデータ) (2023-02-02T10:09:23Z) - TransPath: Learning Heuristics For Grid-Based Pathfinding via
Transformers [64.88759709443819]
探索の効率を顕著に向上させると考えられる,インスタンス依存のプロキシを学習することを提案する。
私たちが最初に学ぶことを提案するプロキシは、補正係数、すなわち、インスタンスに依存しないコスト・ツー・ゴの見積もりと完璧な見積もりの比率である。
第2のプロキシはパス確率であり、グリッドセルが最も短いパスに横たわっている可能性を示している。
論文 参考訳(メタデータ) (2022-12-22T14:26:11Z) - Non-Blocking Batch A* (Technical Report) [17.803001657790748]
我々は,非NNによる拡張を許容しつつ,NNをバッチで遅延的に計算する有界部分最適化手法を提案する。
この微妙ながら重要な変更が,現在のブロッキング方式と比較して,拡張の大幅な削減につながることを示す。
論文 参考訳(メタデータ) (2022-08-15T07:07:29Z) - Non-Clairvoyant Scheduling with Predictions Revisited [77.86290991564829]
非論理的スケジューリングでは、優先度不明な処理条件でジョブをスケジューリングするためのオンライン戦略を見つけることが課題である。
我々はこのよく研究された問題を、アルゴリズム設計に(信頼できない)予測を統合する、最近人気の高い学習強化された設定で再検討する。
これらの予測には所望の特性があり, 高い性能保証を有するアルゴリズムと同様に, 自然な誤差測定が可能であることを示す。
論文 参考訳(メタデータ) (2022-02-21T13:18:11Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - OpEvo: An Evolutionary Method for Tensor Operator Optimization [6.273446055072434]
テンソル作用素の探索空間を効率的に探索する新しい進化的手法OpEvoを提案する。
総合的な実験結果から,OpEvoは最も分散度が低く,試行回数や壁面時間も最小限に設定できることがわかった。
論文 参考訳(メタデータ) (2020-06-10T05:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。