論文の概要: R-LAM: Reproducibility-Constrained Large Action Models for Scientific Workflow Automation
- arxiv url: http://arxiv.org/abs/2601.09749v1
- Date: Mon, 12 Jan 2026 12:13:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.834975
- Title: R-LAM: Reproducibility-Constrained Large Action Models for Scientific Workflow Automation
- Title(参考訳): R-LAM:科学ワークフロー自動化のための再現性制約付き大規模アクションモデル
- Authors: Suriya Sureshkumar,
- Abstract要約: R-LAMは、科学ワークフロー自動化に大規模アクションモデルを適用するための制約付きフレームワークである。
R-LAMは構造化されたアクションスキーマ、決定論的実行ポリシー、明示的なトラッキングを導入し、すべてのアクションと中間アーティファクトが監査可能で再生可能であることを保証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Action Models (LAMs) extend large language models by enabling autonomous decision-making and tool execution, making them promising for automating scientific workflows. However, scientific workflows impose strict requirements on reproducibility, auditability, and deterministic execution, which are not satisfied by generic LLM-based agents. Unconstrained action generation can lead to silent state changes, non-deterministic executions, and irreproducible experimental results, limiting the applicability of LAMs in scientific settings. In this paper, we propose R-LAM, a reproducibility-constrained framework for applying Large Action Models to scientific workflow automation. R-LAM introduces structured action schemas, deterministic execution policies, and explicit provenance tracking to ensure that every action and intermediate artifact is auditable and replayable. The framework supports failure-aware execution loops and controlled workflow forking, enabling iterative experimentation without compromising reproducibility. We implement R-LAM as a lightweight Python framework and release it as an open-source PyPI package to facilitate reproducible research. An experimental evaluation of representative scientific workflows demonstrates that R-LAM improves reproducibility success rates and execution reliability compared to unconstrained LLM-based agents, while retaining adaptive control over workflow execution.
- Abstract(参考訳): 大規模アクションモデル(LAM)は、自律的な意思決定とツール実行を可能にして、大きな言語モデルを拡張し、科学的ワークフローを自動化することを約束する。
しかし、科学的ワークフローは再現性、監査可能性、決定論的実行に厳格な要件を課し、これはジェネリックLLMベースのエージェントによって満たされない。
制約のないアクション生成は、サイレント状態の変化、非決定論的実行、そして予測不可能な実験結果をもたらし、科学的な設定におけるLSMの適用性を制限する。
本稿では,科学的ワークフロー自動化に大規模行動モデルを適用するための再現性に制約のあるフレームワークであるR-LAMを提案する。
R-LAMは構造化されたアクションスキーマ、決定論的実行ポリシー、明示的な証明追跡を導入し、すべてのアクションと中間アーティファクトが監査可能で再生可能であることを保証する。
このフレームワークは、フェールアウェアな実行ループと制御されたワークフローフォークをサポートし、再現性を損なうことなく反復的な実験を可能にする。
我々は、R-LAMを軽量Pythonフレームワークとして実装し、再現可能な研究を容易にするために、オープンソースのPyPIパッケージとしてリリースする。
代表的な科学的ワークフローを実験的に評価したところ、R-LAMは再現性の成功率と実行信頼性をLLMベースのエージェントと比較して改善し、ワークフロー実行に対する適応制御を維持している。
関連論文リスト
- Blueprint First, Model Second: A Framework for Deterministic LLM Workflow [3.9886771197662925]
我々は、"Blueprint First, Model Second"哲学に基づいた新しいパラダイムであるSource Code Agentフレームワークを紹介します。
私たちのフレームワークは、ワークフローロジックを生成モデルから切り離します。
我々の研究は、厳格な手続き論理に支配されるアプリケーションに自律エージェントを検証し、信頼性の高い配置を可能にする。
論文 参考訳(メタデータ) (2025-08-01T03:10:00Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - World Modelling Improves Language Model Agents [11.081954466884392]
DyMoは、トレーニング後の関数呼び出しと並行して、状態予測機能を備えた大きな言語モデルを拡張する方法である。
バークレー・コールリング・リーダーボードV2では、DyMoは成功率を改善し、幻覚を著しく減少させる。
論文 参考訳(メタデータ) (2025-06-03T14:20:59Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - Flow: Modularized Agentic Workflow Automation [53.073598156915615]
大規模言語モデル(LLM)を利用したマルチエージェントフレームワークは、自動計画とタスク実行において大きな成功を収めている。
しかし, 実行中のエージェントの効果的な調整は十分に研究されていない。
本稿では,エージェントによる継続的なワークフロー改善を可能にするアクティビティ・オン・頂点(AOV)グラフを定義する。
提案するマルチエージェントフレームワークは,サブタスクの効率的な同時実行,効果的なゴール達成,エラー耐性の向上を実現している。
論文 参考訳(メタデータ) (2025-01-14T04:35:37Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Reinforcement Learning Based Temporal Logic Control with Soft
Constraints Using Limit-deterministic Generalized Buchi Automata [0.0]
不確実性を考慮した運動計画の制御合成について検討する。
ロボットの動作や環境特性に不確実性が考慮され、確率的マルコフ決定プロセス(MDP)が生まれます。
論文 参考訳(メタデータ) (2021-01-25T18:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。