論文の概要: AttriLens-Mol: Attribute Guided Reinforcement Learning for Molecular Property Prediction with Large Language Models
- arxiv url: http://arxiv.org/abs/2508.04748v1
- Date: Wed, 06 Aug 2025 08:46:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.591018
- Title: AttriLens-Mol: Attribute Guided Reinforcement Learning for Molecular Property Prediction with Large Language Models
- Title(参考訳): AttriLens-Mol:大規模言語モデルを用いた分子特性予測のための属性強化学習
- Authors: Xuan Lin, Long Chen, Yile Wang,
- Abstract要約: 本稿では,LLMを用いた分子特性予測のための属性誘導強化学習フレームワークであるAttriLens-Molを紹介する。
AttriLens-Molは、(1)属性ベースの構造化された出力を奨励する形式報酬、(2)無関係な属性の列挙を避けるためのカウント報酬、(3)高度なLLMとRDKitを使った報酬を使用するモデルの推論を操縦する。
AttriLens-Mol法を用いて, 4000試料を用いた7BサイズR1-Distilled-Qwen2.5およびR1-Distilled-LLaMA3.1モデルのトレーニングを行った結果, 性能が有意に向上した。
- 参考スコア(独自算出の注目度): 11.384713287349575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have shown promise in assisting molecular property prediction tasks but often rely on human-crafted prompts and chain-of-thought templates. While recent advanced large reasoning models like DeepSeek-R1 employ reinforcement learning for an extended ``thinking'' process, their reasoning can be verbose and lack relevance. We introduce AttriLens-Mol, an attribute-guided reinforcement learning framework for molecular property prediction with LLMs. AttriLens-Mol steers the model's reasoning by using: (1) a format reward encouraging attribute-based structured output, (2) a count reward to avoid enumerating irrelevant attributes, and (3) a rationality reward using advanced LLMs and RDKit to verify the relatedness of the generated attributes. This approach implicitly elicits the model's inherent knowledge of relevant molecular attributes during reasoning, enables making predictions for the molecular property more effectively. Experiments on both in-distribution and out-of-distribution datasets show that, training both 7B-size R1-Distilled-Qwen2.5 and R1-Distilled-LLaMA3.1 models on 4,000 samples with our proposed AttriLens-Mol method significantly boosts the performance, getting comparable or better results than supervised fine-tuning models (Mol-Instructions, ChemDFM, etc.) and advanced models (GPT-3.5, GPT-4o, DeepSeek-V3, DeepSeek-R1, etc.). Further, our extracted attributes for the target property, when used as features for an interpretable decision tree model, yield superior performance compared to attributes generated by prompting LLMs. This shows that AttriLens-Mol effectively elicits more relevant and predictive molecular attributes, leading to enhanced interpretability and performance for property prediction. We release the code in https://github.com/szu-tera/AttriLens-Mol.
- Abstract(参考訳): LLM(Large Language Models)は、分子特性予測タスクを支援することを約束しているが、しばしば人造プロンプトやチェーンオブ思考テンプレートに依存している。
最近のDeepSeek-R1のような先進的な大規模推論モデルでは、強化学習を 'thinking' プロセスの拡張に採用しているが、それらの推論は冗長であり、関連性がない。
本稿では,LLMを用いた分子特性予測のための属性誘導強化学習フレームワークであるAttriLens-Molを紹介する。
AttriLens-Molは、(1)属性ベースの構造化出力を奨励する形式報酬、(2)無関係属性の列挙を避けるためのカウント報酬、(3)高度なLCMとRDKitを用いた合理性報酬を用いて生成された属性の関連性を検証する。
このアプローチは、推論中にモデル固有の分子特性の知識を暗黙的に引き起こし、分子特性の予測をより効果的に行えるようにする。
In-distributionとout-of-distributionデータセットの両方の実験により,提案したAttriLens-Mol法では,7BサイズR1-Distilled-Qwen2.5とR1-Distilled-LLaMA3.1モデルの両方を4000のサンプルでトレーニングすることにより,教師付き微調整モデル(Mol-Instructions,ChemDFMなど)や高度なモデル(GPT-3.5,GPT-4o,DeepSeek-V3,DeepSeek-R1など)と比較して,性能を著しく向上することがわかった。
さらに, 解析可能な決定木モデルの特徴として, 対象特性の抽出属性を用いると, LLMのプロンプトによって生成された属性よりも優れた性能が得られることがわかった。
このことは、AttriLens-Molがより関連性があり予測的な分子特性を効果的に引き起こし、特性予測の解釈可能性と性能を高めることを示している。
コードをhttps://github.com/szu-tera/AttriLens-Molでリリースします。
関連論文リスト
- ReasonFlux-PRM: Trajectory-Aware PRMs for Long Chain-of-Thought Reasoning in LLMs [56.32212611983997]
本稿では,新しいトラジェクトリ対応PRMであるReasonFlux-PRMを紹介し,トラジェクトリ応答型推論トレースの評価を行う。
ReasonFlux-PRMはステップレベルとトラジェクトリレベルの両方の監視機能を備えており、構造化された連鎖データと整合した微粒な報酬割り当てを可能にする。
得られたReasonFlux-PRM-7Bは、教師付き微調整で平均12.1%、強化学習で4.5%、テスト時間スケーリングで6.3%向上した。
論文 参考訳(メタデータ) (2025-06-23T17:59:02Z) - Latent Principle Discovery for Language Model Self-Improvement [14.137106102563514]
本稿では, 自己補正設定で明示的にモデル化することで, 人間の嗜好応答を推論する潜在属性を抽出する手法を提案する。
提案手法は,LM自体から新たな原理を抽出し,発見した要素をクラスタリングにより解釈可能な集合に圧縮する。
複数の反復でアルゴリズムをブートストラップすることで、より小さな言語モデルを自己改善し、AlpacaEvalの勝率+8-10%、MT-Benchの平均+0.3、IFEvalの勝率+19-23%を達成できることを示した。
論文 参考訳(メタデータ) (2025-05-22T17:20:18Z) - BOOM: Benchmarking Out-Of-distribution Molecular Property Predictions of Machine Learning Models [12.92528375287641]
BOOM, $boldsymbolb$enchmarks for $boldsymbolo$f-distribution $boldsymbolm$olecular property predictions。
我々は、OOD性能に関するディープラーニングモデルをベンチマークするために、140以上のモデルの組み合わせとプロパティ予測タスクを評価した。
全体として、すべてのタスクにまたがる強力なOOD一般化を実現する既存のモデルは見つからない。
論文 参考訳(メタデータ) (2025-05-03T19:51:23Z) - S$^2$R: Teaching LLMs to Self-verify and Self-correct via Reinforcement Learning [51.84977135926156]
S$2$Rはモデルに推論時の自己検証と自己正当性を教えることによってLLM推論を強化する効率的なフレームワークである。
以上の結果から,Qwen2.5-math-7Bの精度は51.0%から81.6%に向上した。
論文 参考訳(メタデータ) (2025-02-18T13:40:22Z) - SPaR: Self-Play with Tree-Search Refinement to Improve Instruction-Following in Large Language Models [88.29990536278167]
SPaRは、木探索の自己精製を統合して、有効かつ同等な選好ペアを得るセルフプレイフレームワークである。
実験により,SPaRで誘導された3回の反復で訓練されたLLaMA3-8Bモデルが,一般機能を失うことなくIFEvalベンチマークでGPT-4-Turboを上回った。
論文 参考訳(メタデータ) (2024-12-16T09:47:43Z) - Unveiling Molecular Secrets: An LLM-Augmented Linear Model for Explainable and Calibratable Molecular Property Prediction [26.25787628872043]
この研究は、分子特性の正確な予測のための単純な、しかし強力な線形モデルを構築するための、MoleXと呼ばれる新しいフレームワークを提案する。
MoleXの核心は、単純な線形モデルを用いて複雑な分子構造-プロパティ関係をモデル化することであり、LCMの知識と巧妙な校正戦略によって強化される。
大規模な実験により、MoleXは分子特性予測において既存の手法よりも優れており、予測性能、説明可能性、効率性の新たなマイルストーンを確立している。
論文 参考訳(メタデータ) (2024-10-11T14:07:57Z) - Regression with Large Language Models for Materials and Molecular Property Prediction [0.0]
本研究では,大規模言語モデル(LLM)が物質的および分子的特性の回帰処理を行う能力を示す。
我々は,Large Language Model Meta AI (LLaMA) 3を,QM9データセットのいくつかの分子特性と24の材料特性についてベンチマークした。
論文 参考訳(メタデータ) (2024-09-09T21:26:32Z) - The Role of Model Architecture and Scale in Predicting Molecular Properties: Insights from Fine-Tuning RoBERTa, BART, and LLaMA [0.0]
本研究では,各種ケミノフォマティクスタスクの微調整におけるLarge Language Models(LLMs)の有効性を比較するための体系的枠組みを提案する。
分子特性を予測するために,RoBERTa,BART,LLaMAの3つのモデルを評価した。
LLaMAベースのモデルは、一般的に最低限のバリデーション損失を提供しており、タスクやスケールの順応性が優れていることを示唆している。
論文 参考訳(メタデータ) (2024-05-02T02:20:12Z) - Model Extrapolation Expedites Alignment [135.12769233630362]
本研究では,人選好によるアライメントトレーニングを迅速化するExPOという手法を提案する。
我々は、ExPOがトレーニングされたDPOモデルを20%のステップで強化し、完全に訓練されたモデルを上回ることを実証した。
ExPO は AlpacaEval 2.0 と MT-Bench ベンチマークにおいて,既存のオープンソース LLM を特に改善している。
論文 参考訳(メタデータ) (2024-04-25T17:39:50Z) - Molecule Design by Latent Prompt Transformer [76.2112075557233]
本研究は、分子設計の課題を条件付き生成モデリングタスクとしてフレーミングすることによって検討する。
本研究では,(1)学習可能な事前分布を持つ潜伏ベクトル,(2)プロンプトとして潜伏ベクトルを用いる因果トランスフォーマーに基づく分子生成モデル,(3)潜在プロンプトを用いた分子の目標特性および/または制約値を予測する特性予測モデルからなる新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2024-02-27T03:33:23Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Unraveling Key Elements Underlying Molecular Property Prediction: A
Systematic Study [27.56700461408765]
分子特性予測の根底にある重要な要素はほとんど未発見のままである。
我々は,MoreculeNetデータセット上の様々な表現を用いて,代表モデルの広範囲な評価を行う。
合計で62,820モデル、固定表現の50,220モデル、SMILES配列の4,200モデル、分子グラフの8,400モデルを含む訓練を行った。
論文 参考訳(メタデータ) (2022-09-26T14:07:59Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。