論文の概要: GlassMol: Interpretable Molecular Property Prediction with Concept Bottleneck Models
- arxiv url: http://arxiv.org/abs/2603.01274v1
- Date: Sun, 01 Mar 2026 21:07:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.601398
- Title: GlassMol: Interpretable Molecular Property Prediction with Concept Bottleneck Models
- Title(参考訳): GlassMol:概念ボトルネックモデルによる分子特性予測
- Authors: Oscar Rivera, Ziqing Wang, Matthieu Dagommer, Abhishek Pandey, Kaize Ding,
- Abstract要約: 安全性が重要な薬物発見では、機械学習モデルはブラックボックスとして動作する。
既存の解釈可能性の手法は、有効性と信頼性のトレードオフに悩まされる。
モデルに依存しないCBMであるGlassMolを,自動概念キュレーションとLLM誘導概念選択により導入する。
- 参考スコア(独自算出の注目度): 26.551184488481912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning accelerates molecular property prediction, yet state-of-the-art Large Language Models and Graph Neural Networks operate as black boxes. In drug discovery, where safety is critical, this opacity risks masking false correlations and excluding human expertise. Existing interpretability methods suffer from the effectiveness-trustworthiness trade-off: explanations may fail to reflect a model's true reasoning, degrade performance, or lack domain grounding. Concept Bottleneck Models (CBMs) offer a solution by projecting inputs to human-interpretable concepts before readout, ensuring that explanations are inherently faithful to the decision process. However, adapting CBMs to chemistry faces three challenges: the Relevance Gap (selecting task-relevant concepts from a large descriptor space), the Annotation Gap (obtaining concept supervision for molecular data), and the Capacity Gap (degrading performance due to bottleneck constraints). We introduce GlassMol, a model-agnostic CBM that addresses these gaps through automated concept curation and LLM-guided concept selection. Experiments across thirteen benchmarks demonstrate that \method generally matches or exceeds black-box baselines, suggesting that interpretability does not sacrifice performance and challenging the commonly assumed trade-off. Code is available at https://github.com/walleio/GlassMol.
- Abstract(参考訳): 機械学習は分子特性予測を加速するが、最先端の大規模言語モデルとグラフニューラルネットワークはブラックボックスとして動作する。
安全性が重要である薬物発見では、この不透明度は偽相関を隠蔽し、人間の専門知識を除外するリスクがある。
既存の解釈可能性の手法は、有効性と信頼性のトレードオフに悩まされる: 説明は、モデルの真の推論を反映しなかったり、性能を低下させたり、ドメイン基盤が欠如している可能性がある。
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の解釈可能な概念へのインプットを読み取り前に投影し、説明が決定プロセスに本質的に忠実であることを保証するソリューションを提供する。
しかし、CBMを化学に適応させるには、Relevance Gap(大きな記述子空間からタスク関連の概念を選択する)、Annotation Gap(分子データの概念管理を取得する)、Capacity Gap(ボトルネック制約による性能低下)の3つの課題がある。
モデルに依存しないCBMであるGlassMolを,自動概念キュレーションとLLM誘導概念選択により導入する。
13のベンチマークでの実験では、‘method’は一般にブラックボックスベースラインと一致するか、あるいは超えていることが示されており、解釈可能性はパフォーマンスを犠牲にせず、一般的に想定されるトレードオフに挑戦することを示している。
コードはhttps://github.com/walleio/GlassMol.comで入手できる。
関連論文リスト
- Clarity: The Flexibility-Interpretability Trade-Off in Sparsity-aware Concept Bottleneck Models [12.322360020814516]
VLM(Vision-Language Models)はしばしばブラックボックスとして扱われ、意思決定プロセスについて限定的または非既存の調査が行われる。
本稿では、下流のパフォーマンスと概念表現の空間性と精度の間の相互作用を捉える尺度である明快さの概念を紹介する。
実験の結果,柔軟性と解釈可能性の間に重要なトレードオフがあることが判明した。
論文 参考訳(メタデータ) (2026-01-29T16:28:55Z) - Concept Component Analysis: A Principled Approach for Concept Extraction in LLMs [51.378834857406325]
機械的解釈可能性(Mechanistic interpretability)は、大きな言語モデルからの抽出によって問題を緩和しようとする。
スパースオートエンコーダ (SAE) は、解釈可能・単意味的な概念を抽出するための一般的なアプローチである。
SAEは基本的な理論的曖昧さに悩まされており、LLM表現と人間解釈可能な概念との明確に定義された対応はいまだに不明である。
論文 参考訳(メタデータ) (2026-01-28T09:27:05Z) - Controllable Concept Bottleneck Models [55.03639763625018]
制御可能な概念ボトルネックモデル(CCBM)
CCBMは、概念ラベルレベル、概念レベル、データレベルという3つのモデル編集の粒度をサポートする。
CCBMは、数学的に厳密な閉形式近似を享受し、再訓練の必要性を和らげる影響関数から導かれる。
論文 参考訳(メタデータ) (2026-01-01T19:30:06Z) - AUVIC: Adversarial Unlearning of Visual Concepts for Multi-modal Large Language Models [63.05306474002547]
を強制する規制フレームワークは、機械学習の必要性を喚起します。
AUVICはMLLMのための新しい視覚概念アンラーニングフレームワークである。
AUVICは,非ターゲット概念の性能劣化を最小限に抑えつつ,最先端の目標忘れ率を実現していることを示す。
論文 参考訳(メタデータ) (2025-11-14T13:35:32Z) - LTD-Bench: Evaluating Large Language Models by Letting Them Draw [57.237152905238084]
LTD-Benchは、大規模言語モデル(LLM)のブレークスルーベンチマークである。
LLMの評価を抽象的なスコアから直接観察可能な視覚出力に変換する。
LTD-Benchの視覚出力は強力な診断分析を可能にし、モデル類似性を調べるための潜在的アプローチを提供する。
論文 参考訳(メタデータ) (2025-11-04T08:11:23Z) - Towards more holistic interpretability: A lightweight disentangled Concept Bottleneck Model [5.700536552863068]
概念ボトルネックモデル(CBM)は、人間の理解可能な概念を中間表現として予測することにより、解釈可能性を高める。
本稿では,視覚的特徴を意味論的に意味のある構成要素に自動的に分類する軽量なDECBMを提案する。
3つの多様なデータセットの実験により、LCDBMはより高い概念とクラス精度を達成し、解釈可能性と分類性能の両方において従来のCBMよりも優れていたことが示されている。
論文 参考訳(メタデータ) (2025-10-17T15:59:30Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Linearly-Interpretable Concept Embedding Models for Text Analysis [9.340843984411137]
線形解釈可能な概念埋め込みモデル(licEM)を提案する。
licEMs分類精度は既存の解釈可能なモデルよりも優れており、ブラックボックスモデルと一致する。
私たちのモデルが提供する説明は、既存のソリューションに対してより介入可能であり、慎重に整合していることを示します。
論文 参考訳(メタデータ) (2024-06-20T14:04:53Z) - Interpretable Prognostics with Concept Bottleneck Models [5.939858158928473]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、概念的説明に基づいて本質的に解釈可能なニューラルネットワークアーキテクチャである。
CBMはドメインの専門家がテスト時にコンセプトアクティベーションに介入できるようにする。
ケーススタディでは,CBMの性能がブラックボックスモデルと同等か優れていることが示されている。
論文 参考訳(メタデータ) (2024-05-27T18:15:40Z) - Beyond Concept Bottleneck Models: How to Make Black Boxes Intervenable? [8.391254800873599]
本稿では,設計によって解釈できない事前学習型ニューラルネットワークに対して,概念に基づく介入を行う手法を提案する。
我々は、インターベンタビリティの概念を概念に基づく介入の有効性の尺度として定式化し、この定義を微調整ブラックボックスに活用する。
論文 参考訳(メタデータ) (2024-01-24T16:02:14Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。