論文の概要: Agentic AI for Self-Driving Laboratories in Soft Matter: Taxonomy, Benchmarks,and Open Challenges
- arxiv url: http://arxiv.org/abs/2601.17920v1
- Date: Sun, 25 Jan 2026 17:44:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.537861
- Title: Agentic AI for Self-Driving Laboratories in Soft Matter: Taxonomy, Benchmarks,and Open Challenges
- Title(参考訳): ソフトマターにおける自動運転ラボのためのエージェントAI:分類学、ベンチマーク、オープンチャレンジ
- Authors: Xuanzhou Chen, Audrey Wang, Stanley Yin, Hanyang Jiang, Dong Zhang,
- Abstract要約: 自動運転研究所(SDL)は、実験設計、自動実行、データ駆動意思決定の間のループを閉じる。
この調査は、ソフトマターを代表的設定として使用するが、実際の研究室で発生するAI質問に焦点を当てる。
- 参考スコア(独自算出の注目度): 8.153488410654004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-driving laboratories (SDLs) close the loop between experiment design, automated execution, and data-driven decision making, and they provide a demanding testbed for agentic AI under expensive actions, noisy and delayed feedback, strict feasibility and safety constraints, and non-stationarity. This survey uses soft matter as a representative setting but focuses on the AI questions that arise in real laboratories. We frame SDL autonomy as an agent environment interaction problem with explicit observations, actions, costs, and constraints, and we use this formulation to connect common SDL pipelines to established AI principles. We review the main method families that enable closed loop experimentation, including Bayesian optimization and active learning for sample efficient experiment selection, planning and reinforcement learning for long horizon protocol optimization, and tool using agents that orchestrate heterogeneous instruments and software. We emphasize verifiable and provenance aware policies that support debugging, reproducibility, and safe operation. We then propose a capability driven taxonomy that organizes systems by decision horizon, uncertainty modeling, action parameterization, constraint handling, failure recovery, and human involvement. To enable meaningful comparison, we synthesize benchmark task templates and evaluation metrics that prioritize cost aware performance, robustness to drift, constraint violation behavior, and reproducibility. Finally, we distill lessons from deployed SDLs and outline open challenges in multi-modal representation, calibrated uncertainty, safe exploration, and shared benchmark infrastructure.
- Abstract(参考訳): 自動運転車研究所(SDL)は、実験設計、自動実行、データ駆動意思決定の間のループを閉じ、高価なアクション、ノイズと遅延フィードバック、厳格な実現可能性と安全性の制約、非定常性の下でエージェントAIに要求されるテストベッドを提供する。
この調査は、ソフトマターを代表的設定として使用するが、実際の研究室で発生するAI質問に焦点を当てる。
我々は、SDLの自律性は、明示的な観察、行動、コスト、制約を伴うエージェント環境相互作用の問題であり、この定式化を使用して、共通のSDLパイプラインを確立されたAI原則に接続する。
ベイジアン最適化と能動学習によるサンプル効率的な実験選択,長期水平プロトコル最適化のための計画と強化学習,異種機器やソフトウェアを編成するエージェントを用いたツールなど,閉ループ実験を可能にする主要な手法ファミリを概観する。
私たちは、デバッグ、再現性、安全な操作をサポートする検証可能で証明可能なポリシーを強調します。
次に、意思決定の地平線、不確実性モデリング、アクションパラメータ化、制約処理、障害復旧、人間の関与によってシステムを組織する能力駆動型分類法を提案する。
有意義な比較を可能にするため,コスト意識性能,ドリフトに対する堅牢性,制約違反行動,再現性を優先するベンチマークタスクテンプレートと評価指標を合成した。
最後に、デプロイされたSDLから教訓を抽出し、マルチモーダル表現、校正された不確実性、安全な探索、共有ベンチマークインフラストラクチャーにおけるオープンな課題を概説する。
関連論文リスト
- Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - Approaches to Analysis and Design of AI-Based Autonomous Vehicles [12.672967565682724]
AIベースのフィードバックを通じてループを閉じると、自律運転の信頼性に重大なリスクが生じる可能性がある。
本稿では,AIに基づくAVクラスのためのモデリング,解析,合成のためのツールを開発することを目的とする。
論文 参考訳(メタデータ) (2025-09-15T17:32:29Z) - Technical Report: Facilitating the Adoption of Causal Inference Methods Through LLM-Empowered Co-Pilot [44.336297829718795]
CATE-Bは,大規模言語モデル(LLM)をエージェントフレームワーク内で使用して,治療効果推定を通じてユーザを誘導する,オープンソースのコパイロットシステムである。
CATE-B は (i) 因果発見と LLM に基づくエッジオリエンテーションによる構造因果モデルの構築、 (ii) 因果構造とデータセット特性に適合した適切な回帰方法を選択することによるロバストな調整セットの同定を支援する。
論文 参考訳(メタデータ) (2025-08-14T12:20:51Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Cognitive Edge Computing: A Comprehensive Survey on Optimizing Large Models and AI Agents for Pervasive Deployment [12.921833067052928]
本稿では、ネットワークエッジのリソース制約されたデバイス上で、推論可能な大規模言語モデル(LLM)と自律AIエージェントをデプロイするための実用的かつ方法論的な経路として認知エッジコンピューティングを調査する。
本稿では,メモリ/計算予算の厳密化による多段階推論の維持を目的とした,統合された認知保存フレームワークを提案する。
我々は,効率的なトランスフォーマー設計,マルチモーダル統合,ハードウェア対応コンパイル,プライバシ保護学習,エージェントツール利用の進歩を合成し,それらをエッジ固有の操作エンベロープにマップする。
論文 参考訳(メタデータ) (2025-01-04T06:17:48Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。