論文の概要: OpenQlaw: An Agentic AI Assistant for Analysis of 2D Quantum Materials
- arxiv url: http://arxiv.org/abs/2603.17043v1
- Date: Tue, 17 Mar 2026 18:25:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.345554
- Title: OpenQlaw: An Agentic AI Assistant for Analysis of 2D Quantum Materials
- Title(参考訳): OpenQlaw:2次元量子材料分析のためのエージェントAIアシスタント
- Authors: Sankalp Pandey, Xuan-Bac Nguyen, Hoang-Quan Nguyen, Tim Faltermeier, Nicholas Borys, Hugh Churchill, Khoa Luu,
- Abstract要約: 本稿では,2次元材料分析のためのエージェントオーケストレーションシステムOpenQlawを紹介する。
このアーキテクチャは、QuPAINTとNanoBotをベースに構築されている。
- 参考スコア(独自算出の注目度): 12.888415301529891
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The transition from optical identification of 2D quantum materials to practical device fabrication requires dynamic reasoning beyond the detection accuracy. While recent domain-specific Multimodal Large Language Models (MLLMs) successfully ground visual features using physics-informed reasoning, their outputs are optimized for step-by-step cognitive transparency. This yields verbose candidate enumerations followed by dense reasoning that, while accurate, may induce cognitive overload and lack immediate utility for real-world interaction with researchers. To address this challenge, we introduce OpenQlaw, an agentic orchestration system for analyzing 2D materials. The architecture is built upon NanoBot, a lightweight agentic framework inspired by OpenClaw, and QuPAINT, one of the first Physics-Aware Instruction Multi-modal platforms for Quantum Material Discovery. This allows accessibility to the lab floor via a variety of messaging channels. OpenQlaw allows the core Large Language Model (LLM) agent to orchestrate a domain-expert MLLM,with QuPAINT, as a specialized node, successfully decoupling visual identification from reasoning and deterministic image rendering. By parsing spatial data from the expert, the agent can dynamically process user queries, such as performing scale-aware physical computation or generating isolated visual annotations, and answer in a naturalistic manner. Crucially, the system features a persistent memory that enables the agent to save physical scale ratios (e.g., 1 pixel = 0.25 μm) for area computations and store sample preparation methods for efficacy comparison. The application of an agentic architecture, together with the extension that uses the core agent as an orchestrator for domain-specific experts, transforms isolated inferences into a context-aware assistant capable of accelerating high-throughput device fabrication.
- Abstract(参考訳): 2次元量子材料の光学的識別から実用的なデバイス製造への移行には、検出精度以上の動的推論が必要である。
近年のドメイン固有マルチモーダル言語モデル(MLLM)は,物理インフォームド推論を用いた視覚的特徴の基盤化に成功しているが,その出力は段階的に認知透過性に最適化されている。
これにより、冗長な候補列挙が続き、正確ではあるが認知的過負荷を誘発し、研究者との現実世界の相互作用に即効性が欠如する、という厳密な推論がなされる。
この課題に対処するために,2次元材料分析のためのエージェントオーケストレーションシステムであるOpenQlawを紹介する。
このアーキテクチャは、OpenClawにインスパイアされた軽量なエージェントフレームワークであるNanoBotと、QuPAINT上に構築されている。
これによって、さまざまなメッセージングチャネルを通じて、ラボフロアへのアクセシビリティが可能になる。
OpenQlawでは、コアのLarge Language Model (LLM)エージェントがドメイン専門家のMLLMをオーケストレーションし、QuPAINTを特殊なノードとして、推論と決定論的画像レンダリングから視覚的識別を分離することに成功した。
専門家から空間データを解析することにより、エージェントは、スケールアウェアな物理計算の実行や分離された視覚的アノテーションの生成など、ユーザクエリを動的に処理し、自然な方法で回答することができる。
重要な点として、このシステムは、領域計算のための物理スケール比(例: 1ピクセル = 0.25μm)を節約し、有効性比較のためのサンプル準備方法を格納できる永続メモリを備えている。
エージェントアーキテクチャの適用は、コアエージェントをドメイン固有の専門家のオーケストレータとして使用する拡張とともに、分離された推論を高スループットデバイス製造を加速できるコンテキスト認識アシスタントに変換する。
関連論文リスト
- Automating Skill Acquisition through Large-Scale Mining of Open-Source Agentic Repositories: A Framework for Multi-Agent Procedural Knowledge Extraction [20.467661664708086]
本報告では,オープンソースリポジトリのマイニングによる高品質エージェントスキルの自動獲得の枠組みについて検討する。
我々は,TheoremExplainAgentやCode2Videoなどの最先端システムから,可視化と教育能力の抽出に重点を置いている。
エージェントリポジトリからの体系的抽出と厳密なセキュリティガバナンスと多次元評価指標を組み合わせることで、手続き的知識のスケーラブルな獲得が可能になることを実証する。
論文 参考訳(メタデータ) (2026-03-12T11:10:13Z) - Exploring Physical Intelligence Emergence via Omni-Modal Architecture and Physical Data Engine [50.62040226184694]
我々はOmniFysicsについて紹介する。OmniFysicsは、画像、音声、ビデオ、テキスト間の理解を統一するコンパクトなオムニモーダルモデルである。
明示的な物理知識を注入するために、2つのコンポーネントからなる物理データエンジンを構築します。
実験は、標準マルチモーダルベンチマークにおける競合性能を示し、物理指向評価の結果を改善した。
論文 参考訳(メタデータ) (2026-02-05T14:04:51Z) - An Agentic Framework for Autonomous Materials Computation [70.24472585135929]
大規模言語モデル(LLM)は、科学的発見を加速するための強力なツールとして登場した。
近年の進歩はLLMをエージェントフレームワークに統合し、複雑な科学実験のための検索、推論、ツールの使用を可能にしている。
本稿では,第一原理計算の信頼性向上を目的としたドメイン特化エージェントを提案する。
論文 参考訳(メタデータ) (2025-12-22T15:03:57Z) - Code-in-the-Loop Forensics: Agentic Tool Use for Image Forgery Detection [59.04089915447622]
ForenAgentはインタラクティブなIFDフレームワークで、MLLMが検出対象に関するPythonベースの低レベルツールを自律的に生成、実行、洗練することができる。
人間の推論にインスパイアされた我々は、グローバルな認識、局所的な焦点、反復的探索、そして全体論的偏見を含む動的推論ループを設計する。
実験の結果,ForenAgent は IFD 課題に対する創発的なツール利用能力と反射的推論を示すことがわかった。
論文 参考訳(メタデータ) (2025-12-18T08:38:44Z) - Seismology modeling agent: A smart assistant for geophysical researchers [14.28965530601497]
本稿では,Large Language Models (LLM) を利用したインテリジェントな対話型ワークフローを提案する。
SPECFEMのための最初のモデルコンテキストプロトコル(MCP)サーバスイートを紹介する。
このフレームワークは、完全な自動実行とHuman-in-the-loopコラボレーションの両方をサポートする。
論文 参考訳(メタデータ) (2025-12-16T14:18:26Z) - IAD-GPT: Advancing Visual Knowledge in Multimodal Large Language Model for Industrial Anomaly Detection [70.02774285130238]
本稿では,リッチテキストセマンティクスと画像レベルの情報と画素レベルの情報の組み合わせについて検討する。
産業異常検出のためのMLLMに基づく新しいパラダイムであるIAD-GPTを提案する。
MVTec-ADとVisAデータセットの実験は、私たちの最先端のパフォーマンスを示しています。
論文 参考訳(メタデータ) (2025-10-16T02:48:05Z) - El Agente: An Autonomous Agent for Quantum Chemistry [3.6593051631801106]
El Agente Qは、自然言語のユーザプロンプトから量子化学を生成し、実行するマルチエージェントシステムである。
El Agente Qは6つの大学レベルのコース演習と2つのケーススタディでベンチマークされ、堅牢な問題解決性能を示している。
論文 参考訳(メタデータ) (2025-05-05T09:07:22Z) - Optical Quantum Sensing for Agnostic Environments via Deep Learning [59.088205627308]
本稿では,革新的な深層学習に基づく量子センシング手法を提案する。
これにより、光学量子センサーは、非依存環境でハイゼンベルク限界(HL)に達することができる。
我々の発見は、光学量子センシングタスクを加速する新しいレンズを提供する。
論文 参考訳(メタデータ) (2023-11-13T09:46:05Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。