論文の概要: BindCLIP: A Unified Contrastive-Generative Representation Learning Framework for Virtual Screening
- arxiv url: http://arxiv.org/abs/2602.15236v1
- Date: Mon, 16 Feb 2026 22:26:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.926427
- Title: BindCLIP: A Unified Contrastive-Generative Representation Learning Framework for Virtual Screening
- Title(参考訳): BindCLIP:仮想スクリーニングのための統合コントラスト生成表現学習フレームワーク
- Authors: Anjie Qiao, Zhen Wang, Yaliang Li, Jiahua Rao, Yuedong Yang,
- Abstract要約: BindCLIPは仮想スクリーニングのためのコントラスト生成型表現学習フレームワークである。
我々は、BindCLIPが、配布外仮想スクリーニングに挑戦する上で、かなりの利益を得ることを示した。
その結果、生成的、ポーズレベルの監督と対照的な学習を統合することで、より対話性に敏感な埋め込みが得られることが示唆された。
- 参考スコア(独自算出の注目度): 46.26554693977487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual screening aims to efficiently identify active ligands from massive chemical libraries for a given target pocket. Recent CLIP-style models such as DrugCLIP enable scalable virtual screening by embedding pockets and ligands into a shared space. However, our analyses indicate that such representations can be insensitive to fine-grained binding interactions and may rely on shortcut correlations in training data, limiting their ability to rank ligands by true binding compatibility. To address these issues, we propose BindCLIP, a unified contrastive-generative representation learning framework for virtual screening. BindCLIP jointly trains pocket and ligand encoders using CLIP-style contrastive learning together with a pocket-conditioned diffusion objective for binding pose generation, so that pose-level supervision directly shapes the retrieval embedding space toward interaction-relevant features. To further mitigate shortcut reliance, we introduce hard-negative augmentation and a ligand-ligand anchoring regularizer that prevents representation collapse. Experiments on two public benchmarks demonstrate consistent improvements over strong baselines. BindCLIP achieves substantial gains on challenging out-of-distribution virtual screening and improves ligand-analogue ranking on the FEP+ benchmark. Together, these results indicate that integrating generative, pose-level supervision with contrastive learning yields more interaction-aware embeddings and improves generalization in realistic screening settings, bringing virtual screening closer to real-world applicability.
- Abstract(参考訳): 仮想スクリーニングは、特定のターゲットポケットの巨大な化学ライブラリーから活性リガンドを効率的に識別することを目的としている。
最近のCLIPスタイルモデルは、ポケットやリガンドを共有スペースに埋め込むことで、スケーラブルな仮想スクリーニングを可能にする。
しかし,本研究では,そのような表現は微粒な結合相互作用に敏感であり,訓練データにおけるショートカット相関に依存する可能性があり,真の結合互換性によってリガンドをランク付けする能力が制限されることを示唆している。
これらの問題に対処するために,仮想スクリーニングのためのコントラスト生成型表現学習フレームワークであるBindCLIPを提案する。
BindCLIPは、CLIPスタイルのコントラスト学習と、バインドポーズ生成のためのポケット条件拡散目標を併用して、ポケットとリガンドエンコーダを共同で訓練する。
ショートカット依存をさらに緩和するため,表現の崩壊を防止し,ハード負の増大とリガンド・リガンドアンカーレギュレータを導入する。
2つの公開ベンチマークの実験は、強いベースラインよりも一貫した改善を示している。
BindCLIPは、配布外仮想スクリーニングに挑戦する上で大きな利益を上げ、FEP+ベンチマークのリガンド・アナローグランキングを改善している。
これらの結果は、生成的、ポーズレベルの監督と対照的な学習を統合することで、よりインタラクション対応の埋め込みが得られ、現実的なスクリーニング設定における一般化が向上し、仮想スクリーニングが現実の応用に近づいたことを示唆している。
関連論文リスト
- Structure-Aware Contrastive Learning with Fine-Grained Binding Representations for Drug Discovery [3.1716746406651457]
この研究は、構造的先駆体をタンパク質表現に統合する配列に基づく薬物-標的相互作用フレームワークを導入する。
このモデルはHumanおよびBioSNAPデータセットの最先端のパフォーマンスを実現し、BindingDBと競合する。
論文 参考訳(メタデータ) (2025-09-18T09:38:46Z) - Generalized Decoupled Learning for Enhancing Open-Vocabulary Dense Perception [71.26728044621458]
DeCLIPは、CLIPを強化する新しいフレームワークで、自己認識モジュールを分離して、それぞれコンテンツ’と“コンテキスト’の機能を取得する。
2D検出とセグメンテーション、3Dインスタンスのセグメンテーション、ビデオインスタンスのセグメンテーション、6Dオブジェクトのポーズ推定など、幅広いタスクにわたる最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2025-08-15T06:43:51Z) - CLIPin: A Non-contrastive Plug-in to CLIP for Multimodal Semantic Alignment [28.2773807732662]
大規模な自然画像テキストデータセットは、監督の弱いため、しばしば緩やかなセマンティックアライメントに悩まされる。
私たちはCLIPスタイルのアーキテクチャにシームレスに統合できる統合された非コントラストプラグインであるCLIPinを提案する。
2つの共有ロバスト性事前プロジェクタは、コントラスト学習と非コントラスト学習の統合を容易にするために、それぞれ画像とテキストのモダリティのために設計されている。
論文 参考訳(メタデータ) (2025-08-08T16:23:05Z) - Causal Disentanglement and Cross-Modal Alignment for Enhanced Few-Shot Learning [11.752632557524969]
Causal CLIP Adapter(CCA)は、CLIPから抽出された視覚的特徴を明示的に分離する新しいフレームワークである。
本手法は, 分散シフトに対する数ショット性能とロバスト性の観点から, 常に最先端の手法より優れる。
論文 参考訳(メタデータ) (2025-08-05T05:30:42Z) - Unveiling Contrastive Learning's Capability of Neighborhood Aggregation for Collaborative Filtering [16.02820746003461]
グラフコントラスト学習(GCL)は、リコメンデータシステムにおいて、徐々に支配的なアプローチになりつつある。
本稿では,CL目標の勾配降下過程がグラフ畳み込みと正式に等価であることを明らかにする。
そこで本稿では,ユーザを他のポジティブなペアから遠ざけながら,対話するすべてのアイテムに近づけるための,新しいエリアアグリゲーションの目標を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:22:41Z) - Cross-Modal Consistency Learning for Sign Language Recognition [92.44927164283641]
既存の事前学習方法は、コンパクトなポーズデータのみに焦点を当てている。
クロスモーダル一貫性学習フレームワーク(CCL-SLR)を提案する。
CCL-SLRはRGBから学習し、自己教師付き事前学習に基づいてモダリティをポーズする。
論文 参考訳(メタデータ) (2025-03-16T12:34:07Z) - Enhancing Graph Contrastive Learning with Reliable and Informative Augmentation for Recommendation [84.45144851024257]
離散コードによるより強力な協調情報を用いて、コントラスト的なビューを構築することにより、グラフのコントラスト学習を強化することを目的とした、新しいフレームワークを提案する。
中心となる考え方は、ユーザとアイテムを協調情報に富んだ離散コードにマッピングし、信頼性と情報に富んだコントラッシブなビュー生成を可能にすることである。
論文 参考訳(メタデータ) (2024-09-09T14:04:17Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。