論文の概要: AIonopedia: an LLM agent orchestrating multimodal learning for ionic liquid discovery
- arxiv url: http://arxiv.org/abs/2511.11257v1
- Date: Fri, 14 Nov 2025 12:53:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.607053
- Title: AIonopedia: an LLM agent orchestrating multimodal learning for ionic liquid discovery
- Title(参考訳): AIonopedia: イオン液体発見のためのマルチモーダル学習をオーケストレーションするLLMエージェント
- Authors: Yuqi Yin, Yibo Fu, Siyuan Wang, Peng Sun, Hongyu Wang, Xiaohui Wang, Lei Zheng, Zhiyong Li, Zhirong Liu, Jianji Wang, Zhaoxi Sun,
- Abstract要約: AIonopediaを紹介します。私たちの知る限りでは、最初のIL発見エージェントです。
LLMの拡張されたILのためのマルチモーダルドメイン基盤モデルによって実現された。
新しくキュレートされ、包括的なILデータセットでトレーニングされ、評価され、我々のモデルは優れたパフォーマンスを提供する。
- 参考スコア(独自算出の注目度): 21.04373426924859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The discovery of novel Ionic Liquids (ILs) is hindered by critical challenges in property prediction, including limited data, poor model accuracy, and fragmented workflows. Leveraging the power of Large Language Models (LLMs), we introduce AIonopedia, to the best of our knowledge, the first LLM agent for IL discovery. Powered by an LLM-augmented multimodal domain foundation model for ILs, AIonopedia enables accurate property predictions and incorporates a hierarchical search architecture for molecular screening and design. Trained and evaluated on a newly curated and comprehensive IL dataset, our model delivers superior performance. Complementing these results, evaluations on literature-reported systems indicate that the agent can perform effective IL modification. Moving beyond offline tests, the practical efficacy was further confirmed through real-world wet-lab validation, in which the agent demonstrated exceptional generalization capabilities on challenging out-of-distribution tasks, underscoring its ability to accelerate real-world IL discovery.
- Abstract(参考訳): 新しいIonic Liquids(IL)の発見は、限られたデータ、モデルの精度の低下、断片化されたワークフローなど、プロパティ予測における重要な課題によって妨げられている。
我々は,Large Language Models (LLMs) の力を生かして,AIonopediaを紹介した。
ILのためのLLM拡張マルチモーダルドメイン基盤モデルにより、AIonopediaは正確なプロパティ予測を可能にし、分子スクリーニングと設計のための階層的な検索アーキテクチャを組み込んでいる。
新しくキュレートされ、包括的なILデータセットでトレーニングされ、評価され、我々のモデルは優れたパフォーマンスを提供する。
これらの結果を補完し,文献報告システムの評価結果から,有効なIL修飾が可能であることが示唆された。
オフラインテストを超えて、実際の有効性は現実世界のウェットラブ検証によってさらに確認され、エージェントは実際のIL発見を加速する能力を強調しながら、配布外の課題に挑戦する際、例外的な一般化能力を示した。
関連論文リスト
- LimRank: Less is More for Reasoning-Intensive Information Reranking [58.32304478331711]
既存のアプローチは、情報再構成タスクにLLMを適用するために、大規模な微調整に依存するのが一般的である。
本研究では,LLMを最小限の高品質の監視のみを用いて効果的に適用できることを実証する。
論文 参考訳(メタデータ) (2025-10-27T17:19:37Z) - Speed Always Wins: A Survey on Efficient Architectures for Large Language Models [51.817121227562964]
大規模言語モデル(LLM)は、言語理解、生成、推論、マルチモーダルモデルの能力境界の押し付けにおいて、素晴らしい結果をもたらしている。
トランスフォーマーモデルは、現代のLLMの基礎として、優れたスケーリング特性を備えた強力なベースラインを提供する。
従来のトランスフォーマーアーキテクチャは、相当な計算を必要とし、大規模なトレーニングと実践的なデプロイメントに重大な障害を生じさせる。
論文 参考訳(メタデータ) (2025-08-13T14:13:46Z) - LAM SIMULATOR: Advancing Data Generation for Large Action Model Training via Online Exploration and Trajectory Feedback [121.78866929908871]
AIエージェントのための大規模アクションモデル(LAM)は、素晴らしいポテンシャルを提供するが、高品質なトレーニングデータを必要とするため、課題に直面している。
LAM SIMULATORは,高品質なフィードバックによるエージェントタスクのオンライン探索を目的とした総合的なフレームワークである。
本フレームワークは,動的タスククエリジェネレータ,広範囲なツールコレクション,および大規模言語モデル(LLM)エージェントがツールを呼び出し,リアルタイムフィードバックを受信できる対話型環境を備えている。
論文 参考訳(メタデータ) (2025-06-02T22:36:02Z) - Structural Entropy Guided Agent for Detecting and Repairing Knowledge Deficiencies in LLMs [11.724887822269528]
大規模言語モデル(LLM)は、膨大な事前学習コーパスを活用することで、前例のない性能を達成した。
彼らの業績は、医学や科学研究のような知識集約的な領域において、依然として最適以下である。
本稿では,LLMの内在的知識不足に対処する構造エントロピー誘導型知識ナビゲータ(SENATOR)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T02:21:36Z) - Autonomous Microscopy Experiments through Large Language Model Agents [4.241267255764773]
大規模言語モデル(LLM)は、材料研究のための自己運転実験室(SDL)に革命をもたらしている。
LLM駆動エージェントによる原子間力顕微鏡の自動化フレームワークであるArtificially Intelligent Lab Assistant (AILA)を紹介する。
アートモデルの現状が,基本的なタスクや調整シナリオに苦労していることに気付きました。
論文 参考訳(メタデータ) (2024-12-18T09:35:28Z) - On the limits of agency in agent-based models [13.130587222524305]
エージェントベースモデリングは複雑なシステムに対する強力な洞察を提供するが、その実用性は計算の制約によって制限されている。
大規模言語モデル(LLM)の最近の進歩は、適応エージェントによるABMを強化する可能性があるが、大規模なシミュレーションへの統合は依然として困難である。
大規模シミュレーションにおいて,行動複雑性と計算効率のバランスをとる手法であるLSMアーチタイプを提案する。
論文 参考訳(メタデータ) (2024-09-14T04:17:24Z) - Extracting Heuristics from Large Language Models for Reward Shaping in Reinforcement Learning [28.077228879886402]
強化学習(Reinforcement Learning, RL)は、報酬領域におけるサンプルの非効率性に悩まされ、移行時にはさらにその問題が顕著になる。
サンプル効率を改善するために、報酬形成はRLエージェントが最適なポリシーに迅速に収束するのに役立つ本質的な報酬を導入するためのよく研究されたアプローチである。
論文 参考訳(メタデータ) (2024-05-24T03:53:57Z) - Less for More: Enhanced Feedback-aligned Mixed LLMs for Molecule Caption Generation and Fine-Grained NLI Evaluation [11.778576032848482]
この研究は、最小または追加の訓練を伴わずに、推論と評価能力を改善することで、科学的言語モデルを強化する。
このような手法の動作と適合性に関する興味深い洞察を明らかにしながら、最先端のモデルを大幅に超えている。
そこで本研究では,未知の化学領域で使用するために,市販の自然言語推論(NLI)モデルを利用した新しい原子レベル評価手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T20:40:53Z) - PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transition Dynamics [51.17512229589]
PoLLMgraphは、大規模言語モデルのためのモデルベースのホワイトボックス検出および予測手法である。
LLMの内部状態遷移ダイナミクスを解析することにより,幻覚を効果的に検出できることを示す。
我々の研究は、LLMのモデルベースのホワイトボックス分析の新しい手法を開拓し、LLMの振る舞いの複雑なダイナミクスをさらに探求し、理解し、洗練する研究コミュニティを動機付けている。
論文 参考訳(メタデータ) (2024-04-06T20:02:20Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。