論文の概要: Molecular Property Prediction by Semantic-invariant Contrastive Learning
- arxiv url: http://arxiv.org/abs/2303.06902v1
- Date: Mon, 13 Mar 2023 07:32:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 16:04:00.980469
- Title: Molecular Property Prediction by Semantic-invariant Contrastive Learning
- Title(参考訳): 意味不変なコントラスト学習による分子特性予測
- Authors: Ziqiao Zhang, Ailin Xie, Jihong Guan, Shuigeng Zhou
- Abstract要約: 分子特性予測のためのビュー生成法に基づくフラグメントに基づくセマンティック不変コントラスト学習モデルを開発した。
事前トレーニングのサンプルが少ないため、FraSICLは既存の主要なモデルと比較して最先端のパフォーマンスを達成できる。
- 参考スコア(独自算出の注目度): 26.19431931932982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive learning have been widely used as pretext tasks for
self-supervised pre-trained molecular representation learning models in
AI-aided drug design and discovery. However, exiting methods that generate
molecular views by noise-adding operations for contrastive learning may face
the semantic inconsistency problem, which leads to false positive pairs and
consequently poor prediction performance. To address this problem, in this
paper we first propose a semantic-invariant view generation method by properly
breaking molecular graphs into fragment pairs. Then, we develop a
Fragment-based Semantic-Invariant Contrastive Learning (FraSICL) model based on
this view generation method for molecular property prediction. The FraSICL
model consists of two branches to generate representations of views for
contrastive learning, meanwhile a multi-view fusion and an auxiliary similarity
loss are introduced to make better use of the information contained in
different fragment-pair views. Extensive experiments on various benchmark
datasets show that with the least number of pre-training samples, FraSICL can
achieve state-of-the-art performance, compared with major existing counterpart
models.
- Abstract(参考訳): コントラスト学習は、AI支援薬物設計・発見における自己学習済み分子表現学習モデルの前提課題として広く用いられている。
しかし、コントラスト学習のためのノイズ付加操作による分子ビューを生成する出口法は、意味的不整合の問題に直面し、偽陽性ペアが発生し、結果として予測性能が低下する可能性がある。
本稿ではまず,分子グラフをフラグメントペアに適切に分割し,意味不変なビュー生成手法を提案する。
そこで我々は,分子特性予測のためのビュー生成法に基づいて,フラグメントに基づくSemantic-Invariant Contrastive Learning (FraSICL) モデルを開発した。
frasiclモデルは、コントラスト学習のためのビューの表現を生成する2つのブランチから成り、異なるフラグメントペアビューに含まれる情報をよりよく利用するために、マルチビュー融合と補助類似性損失が導入される。
さまざまなベンチマークデータセットに対する大規模な実験により、FraSICLは、トレーニング済みサンプルの最小数で、既存の主要なモデルと比較して最先端のパフォーマンスを達成できることが示されている。
関連論文リスト
- Revealing Multimodal Contrastive Representation Learning through Latent
Partial Causal Models [85.67870425656368]
マルチモーダルデータに特化して設計された統一因果モデルを提案する。
マルチモーダル・コントラスト表現学習は潜在結合変数の同定に優れていることを示す。
実験では、仮定が破られたとしても、我々の発見の堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-09T07:18:06Z) - A Probabilistic Model to explain Self-Supervised Representation Learning [17.643996974016854]
本稿では,データに対する生成潜在変数モデルを提案する。
比較的手法を含む識別的自己監督アルゴリズムのいくつかのファミリは、その表現上の潜在構造をほぼ誘導することを示した。
モデルを生成的に設定することで、SimVEは、一般的なベンチマーク上の以前のVAEメソッドよりもパフォーマンスを向上します。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Prototypical Representation Learning for Relation Extraction [56.501332067073065]
本論文では, 遠隔ラベルデータから予測可能, 解釈可能, 堅牢な関係表現を学習することを目的とする。
文脈情報から各関係のプロトタイプを学習し,関係の本質的意味を最善に探求する。
いくつかの関係学習タスクの結果,本モデルが従来の関係モデルを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-03-22T08:11:43Z) - Model-agnostic interpretation by visualization of feature perturbations [0.0]
粒子群最適化アルゴリズムによって誘導される特徴の摂動を可視化し,モデルに依存しない解釈手法を提案する。
我々は,公開データセットに対して質的かつ定量的にアプローチを検証する。
論文 参考訳(メタデータ) (2021-01-26T00:53:29Z) - Predicting Chemical Properties using Self-Attention Multi-task Learning
based on SMILES Representation [0.0]
本研究では,変圧器変圧器モデルの構造的差異について検討し,新しい自己注意モデルを提案する。
不均衡な化学データセットを用いたマルチタスク学習環境において,自己認識モジュールの表現学習性能を評価した。
論文 参考訳(メタデータ) (2020-10-19T09:46:50Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。