論文の概要: DACBench: A Benchmark Library for Dynamic Algorithm Configuration
- arxiv url: http://arxiv.org/abs/2105.08541v1
- Date: Tue, 18 May 2021 14:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-19 14:00:22.138116
- Title: DACBench: A Benchmark Library for Dynamic Algorithm Configuration
- Title(参考訳): DACBench:動的アルゴリズム構成のためのベンチマークライブラリ
- Authors: Theresa Eimer, Andr\'e Biedenkapp, Maximilian Reimer, Steven
Adriaensen, Frank Hutter, Marius Lindauer
- Abstract要約: 既存のDACベンチマークを異なるAI領域から収集・標準化するベンチマークライブラリであるDACBenchを提案する。
DACの可能性,適用性,課題を示すために,6つの初期ベンチマークの集合が,いくつかの難易度でどのように比較されるかを検討する。
- 参考スコア(独自算出の注目度): 30.217571636151295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic Algorithm Configuration (DAC) aims to dynamically control a target
algorithm's hyperparameters in order to improve its performance. Several
theoretical and empirical results have demonstrated the benefits of dynamically
controlling hyperparameters in domains like evolutionary computation, AI
Planning or deep learning. Replicating these results, as well as studying new
methods for DAC, however, is difficult since existing benchmarks are often
specialized and incompatible with the same interfaces. To facilitate
benchmarking and thus research on DAC, we propose DACBench, a benchmark library
that seeks to collect and standardize existing DAC benchmarks from different AI
domains, as well as provide a template for new ones. For the design of
DACBench, we focused on important desiderata, such as (i) flexibility, (ii)
reproducibility, (iii) extensibility and (iv) automatic documentation and
visualization. To show the potential, broad applicability and challenges of
DAC, we explore how a set of six initial benchmarks compare in several
dimensions of difficulty.
- Abstract(参考訳): Dynamic Algorithm Configuration (DAC)は、ターゲットアルゴリズムのハイパーパラメータを動的に制御してパフォーマンスを向上させることを目的としている。
いくつかの理論的および実証的な結果は、進化計算、AI計画、ディープラーニングのような領域におけるハイパーパラメータを動的に制御する利点を示している。
しかし、これらの結果の複製やDACの新しい手法の研究は、既存のベンチマークがしばしば同一インタフェースと互換性がないため困難である。
ベンチマークの容易化とDACの研究を目的として,AIドメインから既存のDACベンチマークを収集,標準化するベンチマークライブラリであるDACBenchと,新たなベンチマーク用のテンプレートを提案する。
dacbenchの設計には, (i) 柔軟性, (ii) 再現性, (iii) 拡張性, (iv) 自動ドキュメンテーションと可視化といった重要なデシデラタに注目した。
DACの可能性,適用性,課題を示すために,6つの初期ベンチマークの集合が,いくつかの難易度でどのように比較されるかを検討する。
関連論文リスト
- Binary Code Similarity Detection via Graph Contrastive Learning on Intermediate Representations [52.34030226129628]
バイナリコード類似度検出(BCSD)は、脆弱性検出、マルウェア分析、コードの再利用識別など、多くの分野で重要な役割を果たしている。
本稿では,LLVM-IRと高レベルのセマンティック抽象化を利用して,コンパイル差を緩和するIRBinDiffを提案する。
IRBinDiffは1対1の比較と1対多の検索シナリオにおいて,他の主要なBCSD手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-24T09:09:20Z) - Instance Selection for Dynamic Algorithm Configuration with Reinforcement Learning: Improving Generalization [16.49696895887536]
動的アルゴリズム構成(DAC)は、多様なインスタンスに対してアルゴリズムのハイパーパラメータを動的に設定するという課題に対処する。
Deep Reinforcement Learning (RL)でトレーニングされたエージェントは、そのような設定を解決するための経路を提供する。
我々は、過剰表現を克服するためにトレーニングインスタンスの代表的なサブセットを選択して、このサブセット上のエージェントを再訓練し、一般化性能を向上させることで、この問題を軽減するための一歩を踏み出した。
論文 参考訳(メタデータ) (2024-07-18T13:44:43Z) - Fine-Tuning with Divergent Chains of Thought Boosts Reasoning Through Self-Correction in Language Models [63.36637269634553]
本稿では,複数の推論連鎖を比較するためにモデルを必要とすることによって,性能を向上する新しい手法を提案する。
DCoTデータセットの命令チューニングにより、より小さく、よりアクセスしやすい言語モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-07-03T15:01:18Z) - DACO: Towards Application-Driven and Comprehensive Data Analysis via Code Generation [83.30006900263744]
データ分析は、詳細な研究と決定的な洞察を生み出すための重要な分析プロセスである。
LLMのコード生成機能を活用した高品質な応答アノテーションの自動生成を提案する。
我々のDACO-RLアルゴリズムは、57.72%のケースにおいて、SFTモデルよりも有用な回答を生成するために、人間のアノテータによって評価される。
論文 参考訳(メタデータ) (2024-03-04T22:47:58Z) - Efficient Architecture Search via Bi-level Data Pruning [70.29970746807882]
この研究は、DARTSの双方向最適化におけるデータセット特性の重要な役割を探求する先駆者となった。
我々は、スーパーネット予測力学を計量として活用する新しいプログレッシブデータプルーニング戦略を導入する。
NAS-Bench-201サーチスペース、DARTSサーチスペース、MobileNetのようなサーチスペースに関する総合的な評価は、BDPがサーチコストを50%以上削減することを検証する。
論文 参考訳(メタデータ) (2023-12-21T02:48:44Z) - Enhancing Few-shot NER with Prompt Ordering based Data Augmentation [59.69108119752584]
本稿では,PODA(Prompt Ordering Based Data Augmentation)手法を提案する。
3つのパブリックNERデータセットの実験結果とさらなる分析により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-19T16:25:43Z) - Using Automated Algorithm Configuration for Parameter Control [0.7742297876120562]
動的アルゴリズム構成(DAC)は、データ駆動方式でアルゴリズムのパラメータを制御するためのポリシーを自動的に学習する方法の問題に取り組む。
我々は,OneMax問題を解くために,$(lambda,lambda)$Genetic Algorithmにおけるキーパラメータ$lambda$の制御を行う新しいDACベンチマークを提案する。
我々のアプローチは、十分に大きな問題サイズに関する以前の理論的研究から得られたベンチマークのデフォルトパラメータ制御ポリシーを一貫して上回ることができる。
論文 参考訳(メタデータ) (2023-02-23T20:57:47Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Automated Dynamic Algorithm Configuration [39.39845379026921]
アルゴリズムの性能は、しばしばパラメータの設定に依存する。
いくつかのアルゴリズムパラメータは実行時に動的に調整される。
有望な代替手段は、データからそのような動的パラメータ適応ポリシーを自動的に学習することである。
論文 参考訳(メタデータ) (2022-05-27T10:30:25Z) - HAWKS: Evolving Challenging Benchmark Sets for Cluster Analysis [2.5329716878122404]
クラスタリングアルゴリズムの包括的なベンチマークは難しい。
厳格なベンチマークのベストプラクティスに関する合意はありません。
このようなベンチマークのフレキシブルな生成を支援するために,進化的アルゴリズムが果たす重要な役割を実証する。
論文 参考訳(メタデータ) (2021-02-13T15:01:34Z) - Towards Large Scale Automated Algorithm Design by Integrating Modular
Benchmarking Frameworks [0.9281671380673306]
本稿では,アルゴリズムフレームワークであるParadisEOと,自動アルゴリズム設定ツール irace と実験プラットフォーム IOHknownr の効率性を示す最初の概念実証例を提案する。
パイプラインの主な利点は、高速な評価時間、豊富なデータセットを生成する可能性、そしてサンプリングベースの最適化の非常に幅広いクラスをベンチマークするのに使用できる標準化されたインターフェースである。
論文 参考訳(メタデータ) (2021-02-12T10:47:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。