論文の概要: Training-Free Active Learning Framework in Materials Science with Large Language Models
- arxiv url: http://arxiv.org/abs/2511.19730v1
- Date: Mon, 24 Nov 2025 21:46:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.176302
- Title: Training-Free Active Learning Framework in Materials Science with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた教材科学における学習自由なアクティブラーニングフレームワーク
- Authors: Hongchen Wang, Rafael Espinosa Castañeda, Jay R. Werber, Yao Fehlis, Edward Kim, Jason Hattrick-Simpers,
- Abstract要約: 大規模言語モデル(LLM)は、事前訓練された知識と普遍的なトークンベースの表現を活用することで、新しいパラダイムを提供する。
本稿では, LLM をベースとしたアクティブラーニングフレームワーク (LLM-AL) について紹介する。
- 参考スコア(独自算出の注目度): 1.7173772511677432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active learning (AL) accelerates scientific discovery by prioritizing the most informative experiments, but traditional machine learning (ML) models used in AL suffer from cold-start limitations and domain-specific feature engineering, restricting their generalizability. Large language models (LLMs) offer a new paradigm by leveraging their pretrained knowledge and universal token-based representations to propose experiments directly from text-based descriptions. Here, we introduce an LLM-based active learning framework (LLM-AL) that operates in an iterative few-shot setting and benchmark it against conventional ML models across four diverse materials science datasets. We explored two prompting strategies: one using concise numerical inputs suited for datasets with more compositional and structured features, and another using expanded descriptive text suited for datasets with more experimental and procedural features to provide additional context. Across all datasets, LLM-AL could reduce the number of experiments needed to reach top-performing candidates by over 70% and consistently outperformed traditional ML models. We found that LLM-AL performs broader and more exploratory searches while still reaching the optima with fewer iterations. We further examined the stability boundaries of LLM-AL given the inherent non-determinism of LLMs and found its performance to be broadly consistent across runs, within the variability range typically observed for traditional ML approaches. These results demonstrate that LLM-AL can serve as a generalizable alternative to conventional AL pipelines for more efficient and interpretable experiment selection and potential LLM-driven autonomous discovery.
- Abstract(参考訳): アクティブラーニング(AL)は最も有益な実験を優先順位付けすることで科学的発見を加速するが、ALで使用される伝統的な機械学習(ML)モデルは、コールドスタートの制限とドメイン固有の特徴工学に悩まされ、一般化性を制限する。
大規模言語モデル(LLM)は、事前訓練された知識と普遍的なトークンベースの表現を活用して、テキストベースの記述から直接実験を提案する新しいパラダイムを提供する。
本稿では, LLMをベースとしたアクティブラーニングフレームワーク(LLM-AL)について紹介する。
より構成的・構造的な特徴を持つデータセットに適した簡潔な数値入力と、より実験的・手続き的な特徴を持つデータセットに適した拡張記述テキストを用いて、追加のコンテキストを提供する。
すべてのデータセットにおいて、LLM-ALは、トップパフォーマンス候補に到達するために必要な実験数を70%以上削減し、従来型MLモデルより一貫してパフォーマンスが向上する可能性がある。
LLM-ALはより広範に探索的な探索を行いながら、より少ないイテレーションで最適点に到達していることがわかった。
さらに, LLMの非決定性を考慮したLLM-ALの安定性境界について検討し, 従来のML手法で一般的に観測される変動範囲の範囲内で, 走行中に広く一貫性があることを見出した。
これらの結果から, LLM-ALは従来のALパイプラインの代替として, より効率的かつ解釈可能な実験選択と, LLM駆動による自律的発見の可能性が示唆された。
関連論文リスト
- NaViL: Rethinking Scaling Properties of Native Multimodal Large Language Models under Data Constraints [100.02131897927484]
本稿では,Multimodal Large Language Models(MLLM)のエンドツーエンドなネイティブトレーニングに焦点を当てる。
そこで我々は,NaViLと呼ばれるネイティブMLLMと,シンプルで費用対効果の高いレシピを組み合わせて提案する。
14のマルチモーダルベンチマークによる実験結果から,既存のMLLMに対するNaViLの競合性能が確認された。
論文 参考訳(メタデータ) (2025-10-09T17:59:37Z) - Test-Time Learning for Large Language Models [33.11605667376906]
大規模言語モデル(LLM)のためのテスト時間学習(TTL)パラダイムを提案する。
LLMはテスト中にラベルなしのテストデータのみを使用してターゲットドメインに動的に適応する。
TLMはドメイン知識適応における元のLLMと比較して少なくとも20%性能が向上することを示す。
論文 参考訳(メタデータ) (2025-05-27T02:18:59Z) - From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - In-Context Explainers: Harnessing LLMs for Explaining Black Box Models [28.396104334980492]
大規模言語モデル(LLM)は、機械翻訳、常識推論、言語理解といった複雑なタスクにおいて、例外的な機能を示している。
このような多様なタスクにおけるLLMの適応性の主要な理由の1つは、インコンテキスト学習(ICL)能力である。
本稿では,LLMのICL機能を利用して,他の予測モデルによる予測を説明する新しい3つの手法,In-Context Explainersを提案する。
論文 参考訳(メタデータ) (2023-10-09T15:31:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。