論文の概要: OCSU: Optical Chemical Structure Understanding for Molecule-centric Scientific Discovery
- arxiv url: http://arxiv.org/abs/2501.15415v1
- Date: Sun, 26 Jan 2025 06:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:56:33.850494
- Title: OCSU: Optical Chemical Structure Understanding for Molecule-centric Scientific Discovery
- Title(参考訳): OCSU:分子中心の科学発見のための光学化学構造理解
- Authors: Siqi Fan, Yuguang Xie, Bowen Cai, Ailin Xie, Gaochao Liu, Mu Qiao, Jie Xing, Zaiqing Nie,
- Abstract要約: 分子画像とキャプションサブタスクの変化は、画像表現学習とタスクモデリングの両方において大きな課題となる。
本稿では,OCSRを分子画像キャプションに拡張するOCSUタスクを提案する。
本稿では,OCSRに基づく手法とエンドツーエンドのOCSRフリー手法の2つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.905515668299634
- License:
- Abstract: Understanding the chemical structure from a graphical representation of a molecule is a challenging image caption task that would greatly benefit molecule-centric scientific discovery. Variations in molecular images and caption subtasks pose a significant challenge in both image representation learning and task modeling. Yet, existing methods only focus on a specific caption task that translates a molecular image into its graph structure, i.e., OCSR. In this paper, we propose the Optical Chemical Structure Understanding (OCSU) task, which extends OCSR to molecular image caption from motif level to molecule level and abstract level. We present two approaches for that, including an OCSR-based method and an end-to-end OCSR-free method. The proposed Double-Check achieves SOTA OCSR performance on real-world patent and journal article scenarios via attentive feature enhancement for local ambiguous atoms. Cascading with SMILES-based molecule understanding methods, it can leverage the power of existing task-specific models for OCSU. While Mol-VL is an end-to-end optimized VLM-based model. An OCSU dataset, Vis-CheBI20, is built based on the widely used CheBI20 dataset for training and evaluation. Extensive experimental results on Vis-CheBI20 demonstrate the effectiveness of the proposed approaches. Improving OCSR capability can lead to a better OCSU performance for OCSR-based approach, and the SOTA performance of Mol-VL demonstrates the great potential of end-to-end approach.
- Abstract(参考訳): 分子のグラフィカルな表現から化学構造を理解することは、分子中心の科学的発見に大いに役立つ、難しいイメージキャプションタスクである。
分子画像とキャプションサブタスクの変化は、画像表現学習とタスクモデリングの両方において大きな課題となる。
しかし、既存の手法では、分子画像をそのグラフ構造、すなわちOCSRに変換する特定のキャプションタスクのみに焦点を当てている。
本稿では,OCSRを分子画像キャプションにモチーフレベルから分子レベル,抽象レベルまで拡張するOCSUタスクを提案する。
本稿では,OCSRに基づく手法とエンドツーエンドのOCSRフリー手法の2つのアプローチを提案する。
提案したDouble-Checkは、実世界の特許およびジャーナル記事のシナリオ上で、局所不明瞭な原子に対する注意的特徴強化を通じてSOTA OCSR性能を達成する。
SMILESベースの分子理解手法を用いて、既存のタスク固有モデルの力をOCSUに活用することができる。
Mol-VLはエンドツーエンドのVLMベースのモデルである。
OCSUデータセットであるVis-Chebi20は、トレーニングと評価に広く使用されているCheBI20データセットに基づいて構築されている。
Vis-Chebi20の大規模な実験結果から,提案手法の有効性が示された。
OCSR能力の向上により、OCSRベースのアプローチではより優れたOCSU性能が得られ、Mol-VLのSOTA性能はエンドツーエンドアプローチの大きな可能性を示している。
関連論文リスト
- Knowledge-aware contrastive heterogeneous molecular graph learning [77.94721384862699]
分子グラフを不均一な分子グラフ学習(KCHML)に符号化するパラダイムシフトを提案する。
KCHMLは、不均一な分子グラフと二重メッセージパッシング機構によって強化された3つの異なるグラフビュー-分子、元素、薬理学-を通して分子を概念化する。
この設計は、プロパティ予測やドラッグ・ドラッグ・インタラクション(DDI)予測などの下流タスクに対する包括的な表現を提供する。
論文 参考訳(メタデータ) (2025-02-17T11:53:58Z) - FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MaskMol: Knowledge-guided Molecular Image Pre-Training Framework for Activity Cliffs [18.901322124389218]
MaskMolは知識誘導型分子画像自己教師型学習フレームワークである。
MaskMolは、複数のレベルの分子知識を考慮し、分子画像の表現を正確に学習する。
その結果,MaskMolの活性崖推定および複合有効性予測における高精度かつ伝達性を示した。
論文 参考訳(メタデータ) (2024-09-02T03:03:22Z) - Data-Efficient Molecular Generation with Hierarchical Textual Inversion [48.816943690420224]
分子生成のための階層型テキスト変換法 (HI-Mol) を提案する。
HI-Molは分子分布を理解する上での階層的情報、例えば粗い特徴ときめ細かい特徴の重要性にインスパイアされている。
単一レベルトークン埋め込みを用いた画像領域の従来のテキストインバージョン法と比較して, マルチレベルトークン埋め込みにより, 基礎となる低ショット分子分布を効果的に学習することができる。
論文 参考訳(メタデータ) (2024-05-05T08:35:23Z) - Atom-Level Optical Chemical Structure Recognition with Limited Supervision [14.487346160322653]
本稿では,最先端性能を実現する新しい化学構造認識ツールを提案する。
従来の手法とは異なり、本手法は原子レベルの局所化を提供する。
我々のモデルは、SMILESの監督のみで原子レベルの実体検出を行い、OCSRを実行する最初のモデルである。
論文 参考訳(メタデータ) (2024-04-02T09:01:21Z) - MolNexTR: A Generalized Deep Learning Model for Molecular Image Recognition [4.510482519069965]
MolNexTRは、ConvNextとVision-TRansformerの強みを融合させる、新しい画像からグラフまでのディープラーニングモデルである。
同時に原子と結合を予測し、それらのレイアウトルールを理解することができる。
テストセットでは, MolNexTR が優れた性能を示し,81~97% の精度を達成した。
論文 参考訳(メタデータ) (2024-03-06T13:17:41Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Bi-level Contrastive Learning for Knowledge-Enhanced Molecule Representations [68.32093648671496]
分子に固有の二重レベル構造を考慮に入れたGODEを導入する。
分子は固有のグラフ構造を持ち、より広い分子知識グラフ内のノードとして機能する。
異なるグラフ構造上の2つのGNNを事前学習することにより、GODEは対応する知識グラフサブ構造と分子構造を効果的に融合させる。
論文 参考訳(メタデータ) (2023-06-02T15:49:45Z) - t-SMILES: A Scalable Fragment-based Molecular Representation Framework for De Novo Molecule Generation [9.116670221263753]
本研究では, t-SMILESと呼ばれる, フレキシブル, フラグメントベース, マルチスケールな分子表現フレームワークを提案する。
フラグメント化された分子グラフから生成された全二分木上で幅優先探索を行うことにより得られるSMILES型文字列を用いて分子を記述する。
従来のSMILES、DeepSMILES、SELFIES、ベースラインモデルをゴール指向タスクで大幅に上回っている。
論文 参考訳(メタデータ) (2023-01-04T21:41:01Z) - Chemical-Reaction-Aware Molecule Representation Learning [88.79052749877334]
本稿では,化学反応を用いて分子表現の学習を支援することを提案する。
本手法は,1) 埋め込み空間を適切に整理し, 2) 分子埋め込みの一般化能力を向上させるために有効であることが証明された。
実験結果から,本手法は様々なダウンストリームタスクにおける最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2021-09-21T00:08:43Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。