論文の概要: Watts: Infrastructure for Open-Ended Learning
- arxiv url: http://arxiv.org/abs/2204.13250v1
- Date: Thu, 28 Apr 2022 01:54:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-30 04:03:19.091059
- Title: Watts: Infrastructure for Open-Ended Learning
- Title(参考訳): Watts: オープンエンドラーニングのためのインフラストラクチャ
- Authors: Aaron Dharna and Charlie Summers and Rohin Dasari and Julian Togelius
and Amy K. Hoover
- Abstract要約: Wattsはオープンエンドラーニング(OEL)アルゴリズムの実装、比較、再結合のためのフレームワークである。
モジュール性と柔軟性によって動機づけられたWattsは、OELシステムのコンポーネントを微粒化し、アプローチ間の研究と直接比較を促進する。
- 参考スコア(独自算出の注目度): 4.295090944982056
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper proposes a framework called Watts for implementing, comparing, and
recombining open-ended learning (OEL) algorithms. Motivated by modularity and
algorithmic flexibility, Watts atomizes the components of OEL systems to
promote the study of and direct comparisons between approaches. Examining
implementations of three OEL algorithms, the paper introduces the modules of
the framework. The hope is for Watts to enable benchmarking and to explore new
types of OEL algorithms. The repo is available at
\url{https://github.com/aadharna/watts}
- Abstract(参考訳): 本稿では,オープンエンド学習(OEL)アルゴリズムの実装,比較,再結合を行うWattsというフレームワークを提案する。
モジュラリティとアルゴリズムの柔軟性によって動機づけられたWattsは、OELシステムのコンポーネントを微粒化し、アプローチ間の研究と直接比較を促進する。
3つのOELアルゴリズムの実装を調べた結果,フレームワークのモジュールについて紹介した。
Wattsがベンチマークを有効にし、新しいタイプのOELアルゴリズムを探求することを期待している。
リポジトリは \url{https://github.com/aadharna/watts} で入手できる。
関連論文リスト
- Towards Automated Machine Learning Research [4.169915659794567]
本稿では、コンポーネントレベルのイノベーションを通じて、機械学習研究における漸進的な進歩を自動化するためのトップダウンアプローチについて検討する。
本フレームワークは,新しいコンポーネントを体系的に生成し,その実現可能性を評価し,既存のベースラインに対して性能を評価する。
予測仮説の優先順位付けに報奨モデルを導入することにより,仮説生成および評価プロセスの効率化を目指す。
論文 参考訳(メタデータ) (2024-09-09T00:47:30Z) - RAGLAB: A Modular and Research-Oriented Unified Framework for Retrieval-Augmented Generation [54.707460684650584]
大きな言語モデル(LLM)は対話、推論、知識保持における人間レベルの能力を示す。
現在の研究は、LLMに外部知識を組み込むことによって、このボトルネックに対処している。
RAGLABはモジュール的で研究指向のオープンソースライブラリで、6つの既存のアルゴリズムを再現し、RAGアルゴリズムを調査するための包括的なエコシステムを提供する。
論文 参考訳(メタデータ) (2024-08-21T07:20:48Z) - Distributional Bellman Operators over Mean Embeddings [37.5480897544168]
本研究では,帰還分布の有限次元平均埋め込みを学習し,分布強化学習のための新しい枠組みを提案する。
動的プログラミングと時間差学習のための新しいアルゴリズムをこのフレームワークに基づいて提案する。
論文 参考訳(メタデータ) (2023-12-09T11:36:14Z) - Open-Set Automatic Target Recognition [52.27048031302509]
オートマチックターゲット認識(Automatic Target Recognition、ATR)は、異なるセンサーから取得したデータに基づいてターゲットを認識しようとするコンピュータビジョンアルゴリズムのカテゴリである。
既存のATRアルゴリズムは、トレーニングとテストが同じクラス分布を持つ従来のクローズドセット手法向けに開発されている。
ATRアルゴリズムのオープンセット認識機能を実現するためのオープンセット自動ターゲット認識フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T21:28:24Z) - Tree-Based Adaptive Model Learning [62.997667081978825]
我々はKearns-Vazirani学習アルゴリズムを拡張し、時間とともに変化するシステムを扱う。
本稿では,学習前の動作を再利用し,更新し,LearnerLibライブラリに実装し,大規模な実例で評価する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-31T21:24:22Z) - An Improved Reinforcement Learning Algorithm for Learning to Branch [12.27934038849211]
ブランチ・アンド・バウンド(B&B)は最適化の一般的な方法である。
本稿では,新しい強化学習に基づくB&Bアルゴリズムを提案する。
提案アルゴリズムの性能を3つの公開研究ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-01-17T04:50:11Z) - Optimized Recommender Systems with Deep Reinforcement Learning [0.0]
本研究は,再現性のあるテストベッドをセットアップし,現実的な環境下での異なる技術アルゴリズムの状態を評価する手法について検討・開発する。
提案、文献レビュー、方法論、結果、コメントを含む。
論文 参考訳(メタデータ) (2021-10-06T19:54:55Z) - FedML: A Research Library and Benchmark for Federated Machine Learning [55.09054608875831]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習の分野で急速に成長している研究分野である。
既存のFLライブラリは多様なアルゴリズム開発を適切にサポートできない。
FLアルゴリズムの開発と公正な性能比較を容易にするための,オープンな研究ライブラリとベンチマークであるFedMLを紹介する。
論文 参考訳(メタデータ) (2020-07-27T13:02:08Z) - Reinforcement Learning as Iterative and Amortised Inference [62.997667081978825]
我々は、この制御を推論フレームワークとして使用し、償却および反復推論に基づく新しい分類スキームを概説する。
この観点から、比較的探索されていないアルゴリズム設計空間の一部を特定できることを示す。
論文 参考訳(メタデータ) (2020-06-13T16:10:03Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。