論文の概要: OCSU: Optical Chemical Structure Understanding for Molecule-centric Scientific Discovery
- arxiv url: http://arxiv.org/abs/2501.15415v1
- Date: Sun, 26 Jan 2025 06:14:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:56:33.850494
- Title: OCSU: Optical Chemical Structure Understanding for Molecule-centric Scientific Discovery
- Title(参考訳): OCSU:分子中心の科学発見のための光学化学構造理解
- Authors: Siqi Fan, Yuguang Xie, Bowen Cai, Ailin Xie, Gaochao Liu, Mu Qiao, Jie Xing, Zaiqing Nie,
- Abstract要約: 分子画像とキャプションサブタスクの変化は、画像表現学習とタスクモデリングの両方において大きな課題となる。
本稿では,OCSRを分子画像キャプションに拡張するOCSUタスクを提案する。
本稿では,OCSRに基づく手法とエンドツーエンドのOCSRフリー手法の2つのアプローチを提案する。
- 参考スコア(独自算出の注目度): 4.905515668299634
- License:
- Abstract: Understanding the chemical structure from a graphical representation of a molecule is a challenging image caption task that would greatly benefit molecule-centric scientific discovery. Variations in molecular images and caption subtasks pose a significant challenge in both image representation learning and task modeling. Yet, existing methods only focus on a specific caption task that translates a molecular image into its graph structure, i.e., OCSR. In this paper, we propose the Optical Chemical Structure Understanding (OCSU) task, which extends OCSR to molecular image caption from motif level to molecule level and abstract level. We present two approaches for that, including an OCSR-based method and an end-to-end OCSR-free method. The proposed Double-Check achieves SOTA OCSR performance on real-world patent and journal article scenarios via attentive feature enhancement for local ambiguous atoms. Cascading with SMILES-based molecule understanding methods, it can leverage the power of existing task-specific models for OCSU. While Mol-VL is an end-to-end optimized VLM-based model. An OCSU dataset, Vis-CheBI20, is built based on the widely used CheBI20 dataset for training and evaluation. Extensive experimental results on Vis-CheBI20 demonstrate the effectiveness of the proposed approaches. Improving OCSR capability can lead to a better OCSU performance for OCSR-based approach, and the SOTA performance of Mol-VL demonstrates the great potential of end-to-end approach.
- Abstract(参考訳): 分子のグラフィカルな表現から化学構造を理解することは、分子中心の科学的発見に大いに役立つ、難しいイメージキャプションタスクである。
分子画像とキャプションサブタスクの変化は、画像表現学習とタスクモデリングの両方において大きな課題となる。
しかし、既存の手法では、分子画像をそのグラフ構造、すなわちOCSRに変換する特定のキャプションタスクのみに焦点を当てている。
本稿では,OCSRを分子画像キャプションにモチーフレベルから分子レベル,抽象レベルまで拡張するOCSUタスクを提案する。
本稿では,OCSRに基づく手法とエンドツーエンドのOCSRフリー手法の2つのアプローチを提案する。
提案したDouble-Checkは、実世界の特許およびジャーナル記事のシナリオ上で、局所不明瞭な原子に対する注意的特徴強化を通じてSOTA OCSR性能を達成する。
SMILESベースの分子理解手法を用いて、既存のタスク固有モデルの力をOCSUに活用することができる。
Mol-VLはエンドツーエンドのVLMベースのモデルである。
OCSUデータセットであるVis-Chebi20は、トレーニングと評価に広く使用されているCheBI20データセットに基づいて構築されている。
Vis-Chebi20の大規模な実験結果から,提案手法の有効性が示された。
OCSR能力の向上により、OCSRベースのアプローチではより優れたOCSU性能が得られ、Mol-VLのSOTA性能はエンドツーエンドアプローチの大きな可能性を示している。
関連論文リスト
- FARM: Functional Group-Aware Representations for Small Molecules [55.281754551202326]
小型分子のための機能的グループ認識表現(FARM)について紹介する。
FARMはSMILES、自然言語、分子グラフのギャップを埋めるために設計された基礎モデルである。
MoleculeNetデータセット上でFARMを厳格に評価し、12タスク中10タスクで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T23:04:58Z) - MaskMol: Knowledge-guided Molecular Image Pre-Training Framework for Activity Cliffs [18.901322124389218]
MaskMolは知識誘導型分子画像自己教師型学習フレームワークである。
MaskMolは、複数のレベルの分子知識を考慮し、分子画像の表現を正確に学習する。
その結果,MaskMolの活性崖推定および複合有効性予測における高精度かつ伝達性を示した。
論文 参考訳(メタデータ) (2024-09-02T03:03:22Z) - UniIF: Unified Molecule Inverse Folding [67.60267592514381]
全分子の逆折り畳みのための統一モデルUniIFを提案する。
提案手法は,全タスクにおける最先端手法を超越した手法である。
論文 参考訳(メタデータ) (2024-05-29T10:26:16Z) - Data-Efficient Molecular Generation with Hierarchical Textual Inversion [48.816943690420224]
分子生成のための階層型テキスト変換法 (HI-Mol) を提案する。
HI-Molは分子分布を理解する上での階層的情報、例えば粗い特徴ときめ細かい特徴の重要性にインスパイアされている。
単一レベルトークン埋め込みを用いた画像領域の従来のテキストインバージョン法と比較して, マルチレベルトークン埋め込みにより, 基礎となる低ショット分子分布を効果的に学習することができる。
論文 参考訳(メタデータ) (2024-05-05T08:35:23Z) - Atom-Level Optical Chemical Structure Recognition with Limited Supervision [14.487346160322653]
本稿では,最先端性能を実現する新しい化学構造認識ツールを提案する。
従来の手法とは異なり、本手法は原子レベルの局所化を提供する。
我々のモデルは、SMILESの監督のみで原子レベルの実体検出を行い、OCSRを実行する最初のモデルである。
論文 参考訳(メタデータ) (2024-04-02T09:01:21Z) - MolNexTR: A Generalized Deep Learning Model for Molecular Image Recognition [4.510482519069965]
MolNexTRは、ConvNextとVision-TRansformerの強みを融合させる、新しい画像からグラフまでのディープラーニングモデルである。
同時に原子と結合を予測し、それらのレイアウトルールを理解することができる。
テストセットでは, MolNexTR が優れた性能を示し,81~97% の精度を達成した。
論文 参考訳(メタデータ) (2024-03-06T13:17:41Z) - MultiModal-Learning for Predicting Molecular Properties: A Framework Based on Image and Graph Structures [2.5563339057415218]
MolIGは、画像とグラフ構造に基づいて分子特性を予測するための、新しいMultiModaL分子事前学習フレームワークである。
両者の分子表現の強さを融合させる。
ベンチマークグループ内の分子特性予測に関連する下流タスクでは、パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-11-28T10:28:35Z) - Atomic and Subgraph-aware Bilateral Aggregation for Molecular
Representation Learning [57.670845619155195]
我々は、原子とサブグラフを意識したバイラテラルアグリゲーション(ASBA)と呼ばれる分子表現学習の新しいモデルを導入する。
ASBAは、両方の種類の情報を統合することで、以前の原子単位とサブグラフ単位のモデルの限界に対処する。
本手法は,分子特性予測のための表現をより包括的に学習する方法を提供する。
論文 参考訳(メタデータ) (2023-05-22T00:56:00Z) - t-SMILES: A Scalable Fragment-based Molecular Representation Framework for De Novo Molecule Generation [9.116670221263753]
本研究では, t-SMILESと呼ばれる, フレキシブル, フラグメントベース, マルチスケールな分子表現フレームワークを提案する。
フラグメント化された分子グラフから生成された全二分木上で幅優先探索を行うことにより得られるSMILES型文字列を用いて分子を記述する。
従来のSMILES、DeepSMILES、SELFIES、ベースラインモデルをゴール指向タスクで大幅に上回っている。
論文 参考訳(メタデータ) (2023-01-04T21:41:01Z) - Chemical-Reaction-Aware Molecule Representation Learning [88.79052749877334]
本稿では,化学反応を用いて分子表現の学習を支援することを提案する。
本手法は,1) 埋め込み空間を適切に整理し, 2) 分子埋め込みの一般化能力を向上させるために有効であることが証明された。
実験結果から,本手法は様々なダウンストリームタスクにおける最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2021-09-21T00:08:43Z) - Self-Supervised Graph Transformer on Large-Scale Molecular Data [73.3448373618865]
分子表現学習のための新しいフレームワークGROVERを提案する。
GROVERは、分子の豊富な構造的および意味的な情報を、巨大な未標識分子データから学習することができる。
分子表現学習において、最大のGNNであり、最大のトレーニングデータセットである、1000万個の未標識分子に1億のパラメータを持つGROVERを事前訓練します。
論文 参考訳(メタデータ) (2020-06-18T08:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。