論文の概要: LacMaterial: Large Language Models as Analogical Chemists for Materials Discovery
- arxiv url: http://arxiv.org/abs/2510.22312v1
- Date: Sat, 25 Oct 2025 14:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.094569
- Title: LacMaterial: Large Language Models as Analogical Chemists for Materials Discovery
- Title(参考訳): LacMaterial:材料発見のための分析化学者としての大規模言語モデル
- Authors: Hongyu Guo,
- Abstract要約: 大規模な言語モデル(LLM)は、科学におけるアナログ推論のための、有望だが未発見のツールである。
LLMは、クロスドメインアナログとアナログ誘導エスペクタを検索することで、新しい電池材料を生成することができる。
我々の研究は、LLMをアナログ駆動の一般化を科学革新に活用する解釈可能な専門家的な仮説生成器として位置づけた。
- 参考スコア(独自算出の注目度): 16.99549660773114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analogical reasoning, the transfer of relational structures across contexts (e.g., planet is to sun as electron is to nucleus), is fundamental to scientific discovery. Yet human insight is often constrained by domain expertise and surface-level biases, limiting access to deeper, structure-driven analogies both within and across disciplines. Large language models (LLMs), trained on vast cross-domain data, present a promising yet underexplored tool for analogical reasoning in science. Here, we demonstrate that LLMs can generate novel battery materials by (1) retrieving cross-domain analogs and analogy-guided exemplars to steer exploration beyond conventional dopant substitutions, and (2) constructing in-domain analogical templates from few labeled examples to guide targeted exploitation. These explicit analogical reasoning strategies yield candidates outside established compositional spaces and outperform standard prompting baselines. Our findings position LLMs as interpretable, expert-like hypothesis generators that leverage analogy-driven generalization for scientific innovation.
- Abstract(参考訳): 解析的推論(英: Analogical reasoning)とは、関係構造の文脈間での移動(例えば、惑星は太陽であり、電子は核である)は、科学的な発見の基礎である。
しかし、人間の洞察はドメインの専門知識と表面レベルのバイアスによって制約されることが多く、規律内と分野横断の両方において、より深く構造駆動的なアナロジーへのアクセスを制限する。
大規模な言語モデル(LLM)は、膨大なクロスドメインデータに基づいて訓練され、科学におけるアナログ推論のための有望だが未発見のツールである。
本稿では,(1)クロスドメインなアナログやアナログ誘導型例を検索し,従来のドーパント代替品を超越したステア探索を行い,(2)少数のラベル付き例からドメイン内アナログテンプレートを構築して,標的的利用を導くことで,LCMが新規な電池材料を創出できることを実証する。
これらの明示的な類推的推論戦略は、確立された構成空間の外側の候補を導き、基準線を推し進める標準よりも優れる。
我々の研究は、LLMをアナログ駆動の一般化を科学革新に活用する解釈可能な専門家的な仮説生成器として位置づけた。
関連論文リスト
- Vector Ontologies as an LLM world view extraction method [0.0]
大きな言語モデル(LLM)は、世界の複雑な内部表現を持っているが、これらの構造は、元の予測タスクを超えて解釈または再利用することが難しいことで知られている。
ベクトルオントロジー(英: vector ontology)は、ある領域内の概念と関係の幾何学的解析を可能にする、存在論的に有意な次元にまたがる領域固有のベクトル空間を定義する。
GPT-4o-miniを用いて、複数の自然言語プロンプトを通してジャンル表現を抽出し、これらの投影の一貫性を言語的変動と、その接地構造データとの整合性から解析する。
論文 参考訳(メタデータ) (2025-06-16T08:49:21Z) - A Survey on Post-training of Large Language Models [185.51013463503946]
大規模言語モデル(LLM)は、自然言語処理を根本的に変革し、会話システムから科学的探索まで、さまざまな領域で欠かせないものにしている。
これらの課題は、制限された推論能力、倫理的不確実性、最適なドメイン固有のパフォーマンスといった欠点に対処するために、先進的な訓練後言語モデル(PoLM)を必要とする。
本稿では,タスク固有の精度を向上するファインチューニング,倫理的コヒーレンスと人間の嗜好との整合性を保証するアライメント,報酬設計の課題によらず多段階の推論を進める推論,統合と適応の5つのパラダイムを体系的に追跡したPoLMの総合的な調査について述べる。
論文 参考訳(メタデータ) (2025-03-08T05:41:42Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - SpaRC and SpaRP: Spatial Reasoning Characterization and Path Generation for Understanding Spatial Reasoning Capability of Large Language Models [70.01883340129204]
空間推論は 生物学的と人工知能の両方において 重要な要素です
本稿では,現在最先端の大規模言語モデル (LLM) の空間的推論能力について包括的に検討する。
論文 参考訳(メタデータ) (2024-06-07T01:06:34Z) - Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction [46.2032673640788]
人間の認知における類推的推論の不可欠な役割は、共用関係構造を通して親しみやすい概念とリンクすることで、新しい概念を把握できることである。
この研究は、Large Language Models (LLM) がこれらの類似の基盤となる構造をしばしば見落としていることを示唆している。
本稿では,2つのシステム間の類似性を形成する構造を導出するための,認知心理学に基づく類推的構造推論の課題を紹介する。
論文 参考訳(メタデータ) (2023-05-22T03:04:06Z) - ANALOGYKB: Unlocking Analogical Reasoning of Language Models with A Million-scale Knowledge Base [51.777618249271725]
ANALOGYKBは、既存の知識グラフ(KGs)から派生した100万スケールのアナロジー知識ベースである
1)KGから直接抽出できる同一関係のアナロジー、2)大きな言語モデル(LLM)によって実現される選択とフィルタリングパイプラインと識別される類似関係のアナロジーである。
論文 参考訳(メタデータ) (2023-05-10T09:03:01Z) - Scientific and Creative Analogies in Pretrained Language Models [24.86477727507679]
本稿では,BERT や GPT-2 などの大規模事前学習言語モデルにおけるアナログの符号化について検討する。
我々は,複数の属性の体系的マッピングと異種ドメイン間の関係構造を含む新しいアナロジーデータセットであるScientific and Creative Analogy dataset(SCAN)を紹介する。
現状のLMはこれらの複雑なアナロジータスクにおいて低性能を実現し、アナロジー理解によってもたらされる課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2022-11-28T12:49:44Z) - AI Research Associate for Early-Stage Scientific Discovery [1.6861004263551447]
人工知能(AI)は科学活動に何十年も使われ続けている。
我々は、最小バイアスの物理に基づくモデリングに基づく、初期段階の科学的発見のためのAI研究アソシエイトを提案する。
論文 参考訳(メタデータ) (2022-02-02T17:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。