論文の概要: AIM: Adaptive Intervention for Deep Multi-task Learning of Molecular Properties
- arxiv url: http://arxiv.org/abs/2509.25955v1
- Date: Tue, 30 Sep 2025 08:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.481633
- Title: AIM: Adaptive Intervention for Deep Multi-task Learning of Molecular Properties
- Title(参考訳): AIM:分子特性の深層マルチタスク学習のための適応的介入
- Authors: Mason Minot, Gisbert Schneider,
- Abstract要約: AIMは、勾配紛争を仲介するポリシーを学ぶための最適化フレームワークである。
QM9のサブセットとターゲットタンパク質分解剤ベンチマークのマルチタスクベースラインに対する統計的に有意な改善を実現している。
AIMの主な貢献は、その解釈可能性であり、学習されたポリシーマトリックスは、タスク間の関係を分析するための診断ツールとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simultaneously optimizing multiple, frequently conflicting, molecular properties is a key bottleneck in the development of novel therapeutics. Although a promising approach, the efficacy of multi-task learning is often compromised by destructive gradient interference, especially in the data-scarce regimes common to drug discovery. To address this, we propose AIM, an optimization framework that learns a dynamic policy to mediate gradient conflicts. The policy is trained jointly with the main network using a novel augmented objective composed of dense, differentiable regularizers. This objective guides the policy to produce updates that are geometrically stable and dynamically efficient, prioritizing progress on the most challenging tasks. We demonstrate that AIM achieves statistically significant improvements over multi-task baselines on subsets of the QM9 and targeted protein degraders benchmarks, with its advantage being most pronounced in data-scarce regimes. Beyond performance, AIM's key contribution is its interpretability; the learned policy matrix serves as a diagnostic tool for analyzing inter-task relationships. This combination of data-efficient performance and diagnostic insight highlights the potential of adaptive optimizers to accelerate scientific discovery by creating more robust and insightful models for multi-property molecular design.
- Abstract(参考訳): 複数の、しばしば矛盾する分子特性を同時に最適化することは、新しい治療法の開発における重要なボトルネックである。
有望なアプローチではあるが、マルチタスク学習の有効性は、特に薬物発見に共通するデータ・スカース体制において、破壊的な勾配干渉によってしばしば損なわれる。
そこで我々は,勾配競合を媒介する動的ポリシを学習する最適化フレームワークであるAIMを提案する。
このポリシーは、密度の高い微分可能な正則化器からなる新しい拡張目的を用いて、メインネットワークと共同で訓練される。
この目的は、幾何学的に安定し、動的に効率的な更新を生成するためのポリシーを導き、最も困難なタスクの進捗を優先順位付けする。
AIMはQM9のサブセットとターゲットタンパク質分解器のベンチマークに基づいて,マルチタスクベースラインに対して統計的に有意な改善を達成し,その利点はデータスカース方式において最も顕著である。
学習されたポリシーマトリックスは、タスク間の関係を分析するための診断ツールとして機能する。
データ効率のパフォーマンスと診断の洞察の組み合わせは、多目的分子設計のためのより堅牢で洞察に富んだモデルを作成することによって、科学的発見を加速する適応最適化の可能性を浮き彫りにしている。
関連論文リスト
- Revisit the Imbalance Optimization in Multi-task Learning: An Experimental Analysis [44.410446932443]
マルチタスク学習(MTL)は、1つのネットワークをトレーニングして複数のタスクを共同実行することで汎用的な視覚システムを構築することを目的としている。
期待されているが、そのポテンシャルは「不均衡な最適化」によって妨げられることが多い。
本稿では,この持続的問題に寄与する要因を解明するための系統的な実験的検討を行った。
論文 参考訳(メタデータ) (2025-09-28T14:40:06Z) - Quantum-Enhanced Multi-Task Learning with Learnable Weighting for Pharmacokinetic and Toxicity Prediction [10.487649921110611]
本稿では,ADMET分類タスクに特化して設計された,量子強化およびタスク重み付きマルチタスク学習フレームワークを提案する。
QW-MTLは、電子構造と相互作用に関する追加情報で分子表現を豊かにする量子化学記述子を採用している。
タスク間の動的損失分散を実現するために、データセットスケールの事前処理と学習可能なパラメータを組み合わせた、新しい指数関数的タスク重み付け方式を導入している。
論文 参考訳(メタデータ) (2025-09-04T18:33:40Z) - AIM: Adaptive Intra-Network Modulation for Balanced Multimodal Learning [55.56234913868664]
そこで我々は,適応型ネットワーク内変調(AIM)を提案し,バランスの取れたモダリティ学習を改善する。
AIMは、変調中のネットワーク内のパラメータと深さの最適化状態の違いを考慮に入れている。
AIMは、複数のベンチマークにおいて、最先端の非バランスなモダリティ学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-08-27T10:53:36Z) - Agentic Reinforced Policy Optimization [66.96989268893932]
検証可能な報酬付き大規模強化学習(RLVR)は,大規模言語モデル(LLM)を単一ターン推論タスクに活用する効果を実証している。
現在のRLアルゴリズムは、モデル固有のロングホライゾン推論能力と、マルチターンツールインタラクションにおけるその習熟性のバランスが不十分である。
エージェント強化ポリシー最適化(ARPO: Agentic Reinforced Policy Optimization)は,マルチターンLDMエージェントを学習するためのエージェントRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-07-26T07:53:11Z) - Collaborative Expert LLMs Guided Multi-Objective Molecular Optimization [51.104444856052204]
我々は,多目的分子最適化のための協調型大規模言語モデル(LLM)システムであるMultiMolを提案する。
6つの多目的最適化タスクに対する評価において、MultiMolは既存の手法を著しく上回り、82.30%の成功率を達成した。
論文 参考訳(メタデータ) (2025-03-05T13:47:55Z) - Dynamic Detection of Relevant Objectives and Adaptation to Preference Drifts in Interactive Evolutionary Multi-Objective Optimization [2.4374097382908477]
意思決定過程を通じて進化し,目的の関連性に影響を与えるDM選好の動的性質について検討する。
このような変化が起こると、時代遅れや相反する好みを解消する手法を提案する。
実験により,提案手法は進化する嗜好を効果的に管理し,アルゴリズムが生成するソリューションの品質と望ましさを著しく向上することを示した。
論文 参考訳(メタデータ) (2024-11-07T09:09:06Z) - Three-Way Trade-Off in Multi-Objective Learning: Optimization,
Generalization and Conflict-Avoidance [47.42067405054353]
MOL(Multi-objective Learning)は、機械学習の新興問題においてしばしば発生する問題である。
MOLにおける重要な課題の1つは、反復最適化プロセスにおける異なる目的間の潜在的な衝突である。
近年,MGDAやその変種など,MOLの動的重み付けアルゴリズムが開発されている。
論文 参考訳(メタデータ) (2023-05-31T17:31:56Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。