論文の概要: Weisfeiler-Leman Features for Planning: A 1,000,000 Sample Size Hyperparameter Study
- arxiv url: http://arxiv.org/abs/2508.18515v1
- Date: Mon, 25 Aug 2025 21:39:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.607106
- Title: Weisfeiler-Leman Features for Planning: A 1,000,000 Sample Size Hyperparameter Study
- Title(参考訳): Weisfeiler-Lemanの計画的特徴:1000,000のサンプルサイズハイパーパラメーター
- Authors: Dillon Z. Chen,
- Abstract要約: Weisfeiler-Leman Features (WLF)は、計画と検索を学ぶための古典的な機械学習ツールである。
さまざまなトレードオフや,トレーニングや計画への影響について検討する。
- 参考スコア(独自算出の注目度): 2.7074235008521246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weisfeiler-Leman Features (WLFs) are a recently introduced classical machine learning tool for learning to plan and search. They have been shown to be both theoretically and empirically superior to existing deep learning approaches for learning value functions for search in symbolic planning. In this paper, we introduce new WLF hyperparameters and study their various tradeoffs and effects. We utilise the efficiency of WLFs and run planning experiments on single core CPUs with a sample size of 1,000,000 to understand the effect of hyperparameters on training and planning. Our experimental analysis show that there is a robust and best set of hyperparameters for WLFs across the tested planning domains. We find that the best WLF hyperparameters for learning heuristic functions minimise execution time rather than maximise model expressivity. We further statistically analyse and observe no significant correlation between training and planning metrics.
- Abstract(参考訳): Weisfeiler-Leman Features (WLF)は、計画と検索を学ぶための古典的な機械学習ツールである。
それらは、記号計画における探索のための価値関数を学習するための既存のディープラーニングアプローチよりも理論的にも経験的にも優れていることが示されている。
本稿では,新しいWLFハイパーパラメータを導入し,それらのトレードオフと効果について検討する。
我々は、WLFの効率を活用し、サンプルサイズ1000,000のシングルコアCPU上で計画実験を行い、ハイパーパラメータがトレーニングと計画に与える影響を理解する。
実験により,テスト対象の計画領域にまたがるWLFに対して,ロバストかつ最良のハイパーパラメータが存在することが示された。
ヒューリスティック関数の学習に最適なWLFハイパーパラメータは,モデル表現率を最大化するのではなく,実行時間を最小化する。
我々はさらに統計的に分析し、トレーニングと計画メトリクスの間に有意な相関関係は見つからない。
関連論文リスト
- Hyperparameter Optimisation with Practical Interpretability and Explanation Methods in Probabilistic Curriculum Learning [2.5352713493505785]
確率的カリキュラム学習(英: Probabilistic Curriculum Learning, PCL)は、エージェントの学習過程を構造化することにより、RLの性能を向上させるためのカリキュラム学習戦略である。
本稿では,超パラメータ相互作用の実証分析を行い,PCLアルゴリズムの性能に及ぼす効果について述べる。
論文 参考訳(メタデータ) (2025-04-09T08:41:27Z) - Predictable Scale: Part I, Step Law -- Optimal Hyperparameter Scaling Law in Large Language Model Pretraining [59.369484219304866]
我々は100兆のトークンをスクラッチから3,700以上の大規模言語モデル(LLM)に対する前例のない経験的調査訓練を実施している。
ステップ法則(ステップ法)と呼ばれる,LLM事前学習におけるハイパーパラメータ最適化のための普遍的スケーリング法則を確立する。
我々の推定オプティマは, 排他的探索によって得られた世界最高の性能から, テストセットの0.094%しか逸脱しない。
論文 参考訳(メタデータ) (2025-03-06T18:58:29Z) - UNEM: UNrolled Generalized EM for Transductive Few-Shot Learning [35.62208317531141]
我々は「最適化学習」とも呼ばれるアンロールパラダイムを提唱し紹介する。
我々のアンローリングアプローチは、様々な統計的特徴分布と事前学習パラダイムをカバーしている。
本稿では,下流画像分類作業の細粒度を網羅した包括的実験について報告する。
論文 参考訳(メタデータ) (2024-12-21T19:01:57Z) - Automated Few-Shot Time Series Forecasting based on Bi-level Programming [5.760976250387322]
本稿では,バイレベルプログラミングの観点から,数発の学習パイプラインの最適設計を自動化するBiLO-Auto-TSF/MLフレームワークを開発する。
提案したBiLO-Auto-TSF/MLフレームワークの有効性を総合的に検証した。
論文 参考訳(メタデータ) (2022-03-07T12:15:14Z) - Guided Hyperparameter Tuning Through Visualization and Inference [12.035299005299306]
本稿では,ディープラーニングの実践者がハイパーパラメータをより効率的に探索し,チューニングし,最適化することができる可視化システムを提案する。
鍵となる考え方は、予測メカニズムを使用して、より最適なハイパーパラメータを直接提案することである。
私たちはこのツールをディープラーニングモデルビルダーに関するユーザスタディで評価し、私たちの参加者はツールの採用にほとんど問題がなく、ワークフローの一部として作業しています。
論文 参考訳(メタデータ) (2021-05-24T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。