論文の概要: Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
- arxiv url: http://arxiv.org/abs/2602.07040v1
- Date: Tue, 03 Feb 2026 19:01:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.392138
- Title: Aster: Autonomous Scientific Discovery over 20x Faster Than Existing Methods
- Title(参考訳): アスター:既存の手法より20倍早く自律的な科学的発見
- Authors: Emmett Bicker,
- Abstract要約: AsterはAIエージェントで、既存のフレームワークの20倍以上の速度で操作できる。
反復的にプログラムを改善し、しばしば新しい最先端のパフォーマンスをもたらす。
Asterは、ZAPBenchを除いて、すべてのタスクでSOTAを達成し、計算の1/190未満で、最高のヒューマンソリューションのパフォーマンスにマッチする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Aster, an AI agent for autonomous scientific discovery capable of operating over 20 times faster than existing frameworks. Given a task, an initial program, and a script to evaluate the performance of the program, Aster iteratively improves the program, often leading to new state-of-the-art performances. Aster's significant reduction in the number of iterations required for novel discovery expands the domain of tractable problems to include tasks with long evaluation durations, such as multi-hour machine learning training runs. We applied Aster to problems in mathematics, GPU kernel engineering, biology, neuroscience, and language model training. More specifically: the Erdos minimum overlap problem, optimizing the TriMul kernel, a single-cell analysis denoising problem, training a neural activity prediction model to perform well on ZAPBench, and the NanoGPT Speedrun Competition. Aster attains SOTA results in every task, except for ZAPBench, where it matches the performance of the best human solution with less than 1/190th of the compute. Aster is accessible via a web interface and API at asterlab.ai.
- Abstract(参考訳): 私たちはAsterを紹介します。Asterは、自律的な科学的発見のためのAIエージェントで、既存のフレームワークの20倍以上の速度で操作できます。
タスク、初期プログラム、プログラムのパフォーマンスを評価するスクリプトが与えられたとき、アスターは反復的にプログラムを改善し、しばしば新しい最先端のパフォーマンスをもたらす。
新規発見に必要なイテレーション数を大幅に削減したアスターは、抽出可能な問題の領域を拡張して、マルチ時間機械学習トレーニングの実行のような長い評価期間のタスクを含むようにしている。
我々はAsterを数学、GPUカーネル工学、生物学、神経科学、言語モデルトレーニングの問題に適用した。
具体的には、Erdos最小オーバーラップ問題、TriMulカーネルの最適化、単一セル解析復号化問題、ZAPBench上での神経活動予測モデルのトレーニング、NanoGPT Speedrun Competition。
Asterは、ZAPBenchを除いて、すべてのタスクでSOTAを達成し、計算の1/190未満で、最高のヒューマンソリューションのパフォーマンスにマッチする。
Asterlab.aiではWebインターフェースとAPIを通じてアクセス可能である。
関連論文リスト
- Learning to Discover at Test Time [79.84622971773862]
私たちはAIを使って、科学的な問題に対する新しい最先端のアートを発見します。
この手法をTTT-Discover(Test-Time Training to Discover)と呼ぶ。
数学、GPUカーネルエンジニアリング、アルゴリズム設計、生物学のあらゆる問題に対する結果を報告する。
論文 参考訳(メタデータ) (2026-01-22T18:24:00Z) - DaCe AD: Unifying High-Performance Automatic Differentiation for Machine Learning and Scientific Computing [54.73410106410609]
この研究は、コード修正を必要としない汎用的で効率的な自動微分エンジンであるDaCe ADを提示する。
DaCe ADは、新しいILPベースのアルゴリズムを使用して、記憶と再計算の間のトレードオフを最適化し、与えられたメモリ制約内で最大性能を達成する。
論文 参考訳(メタデータ) (2025-09-02T11:09:45Z) - AlgoTune: Can Language Models Speed Up General-Purpose Numerical Programs? [39.44633824978887]
オープンなベンチマークでアルゴリズムを設計・実装するテストモデルを提案する。
私たちのAlgoTuneベンチマークは、ドメインの専門家から収集された154のコーディングタスクで構成されています。
AlgoTunerは参照ソルバに対して平均1.72倍のスピードアップを達成する。
論文 参考訳(メタデータ) (2025-07-19T11:23:25Z) - The Automated LLM Speedrunning Benchmark: Reproducing NanoGPT Improvements [87.61432174951891]
科学的進歩への重要な能力は、既存の作品を再現する能力である。
アクティブな研究領域においてAIエージェントが結果を再現する能力を評価するために,自動LLM高速化ベンチマークを導入する。
最近のLSMとSoTAの足場を組み合わせると、ベンチマークですでに知られているイノベーションを再実装するのに苦労していることが分かりました。
論文 参考訳(メタデータ) (2025-06-27T17:44:32Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - CLUTR: Curriculum Learning via Unsupervised Task Representation Learning [130.79246770546413]
CLUTRは、タスク表現とカリキュラム学習を2段階最適化に分離する、新しいカリキュラム学習アルゴリズムである。
CLUTRは、CarRacingとナビゲーション環境における一般化とサンプル効率の観点から、原則的かつ一般的なUED手法であるPAIREDよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T01:45:29Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - Efficient Architecture Search for Diverse Tasks [29.83517145790238]
多様な問題を効率的に解くために,ニューラルネットワーク探索(NAS)について検討する。
本稿では,畳み込みのフーリエ対角化を用いた混合動作を計算する,微分可能なNASアルゴリズムであるDASHを紹介する。
DASH-Bench-360は多様な領域におけるNASベンチマークのために設計された10のタスクスイートである。
論文 参考訳(メタデータ) (2022-04-15T17:21:27Z) - Multi-objective Neural Architecture Search with Almost No Training [9.93048700248444]
本稿ではRWE(Random-Weight Evaluation)という,ネットワークアーキテクチャの性能を迅速に評価する手法を提案する。
RWEは、アーキテクチャを評価するための計算コストを数時間から秒に短縮する。
進化的多目的アルゴリズムに統合されると、RWEはCIFAR-10上で2時間以内で1枚のGPUカードを検索し、最先端の性能を持つ効率的なアーキテクチャの集合を得る。
論文 参考訳(メタデータ) (2020-11-27T07:39:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。