論文の概要: Spatially Resolved Gene Expression Prediction from H&E Histology Images
via Bi-modal Contrastive Learning
- arxiv url: http://arxiv.org/abs/2306.01859v1
- Date: Fri, 2 Jun 2023 18:27:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:42:19.980266
- Title: Spatially Resolved Gene Expression Prediction from H&E Histology Images
via Bi-modal Contrastive Learning
- Title(参考訳): バイモーダルコントラスト学習によるH&Eヒストロジー画像からの空間分解遺伝子発現予測
- Authors: Ronald Xie, Kuan Pang, Gary D. Bader, Bo Wang
- Abstract要約: BLEEP(Bi-modaL Embedding for Expression Prediction)は、空間的に解決された遺伝子発現プロファイルを生成することができるバイモーダル埋め込みフレームワークである。
BLEEPは、対照的な学習フレームワークを使用して、参照データセットから低次元の関節埋め込み空間を構築する。
ヒト肝組織データセット上でのBLEEPによる遺伝子発現予測の有効性を示す。
- 参考スコア(独自算出の注目度): 4.36561468436181
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Histology imaging is an important tool in medical diagnosis and research,
enabling the examination of tissue structure and composition at the microscopic
level. Understanding the underlying molecular mechanisms of tissue architecture
is critical in uncovering disease mechanisms and developing effective
treatments. Gene expression profiling provides insight into the molecular
processes underlying tissue architecture, but the process can be time-consuming
and expensive. In this study, we present BLEEP (Bi-modaL Embedding for
Expression Prediction), a bi-modal embedding framework capable of generating
spatially resolved gene expression profiles of whole-slide Hematoxylin and
eosin (H&E) stained histology images. BLEEP uses a contrastive learning
framework to construct a low-dimensional joint embedding space from a reference
dataset using paired image and expression profiles at micrometer resolution.
With this framework, the gene expression of any query image patch can be
imputed using the expression profiles from the reference dataset. We
demonstrate BLEEP's effectiveness in gene expression prediction by benchmarking
its performance on a human liver tissue dataset captured via the 10x Visium
platform, where it achieves significant improvements over existing methods. Our
results demonstrate the potential of BLEEP to provide insights into the
molecular mechanisms underlying tissue architecture, with important
implications in diagnosis and research of various diseases. The proposed
framework can significantly reduce the time and cost associated with gene
expression profiling, opening up new avenues for high-throughput analysis of
histology images for both research and clinical applications.
- Abstract(参考訳): 組織像は医学的診断と研究において重要なツールであり、顕微鏡レベルで組織構造と組成を調べることができる。
組織構造の基礎となる分子機構を理解することは、疾患のメカニズムを解明し、効果的な治療法を開発する上で重要である。
遺伝子発現プロファイリングは組織構造の基礎となる分子過程の洞察を与えるが、そのプロセスは時間と費用がかかる可能性がある。
本研究では,全スライドヘマトキシリンおよびエオシン(h&e)染色組織像の空間分解型遺伝子発現プロファイルを生成できるバイモーダル埋め込みフレームワークであるbleep(bi-modal embedded for expression prediction)を提案する。
BLEEPは対照的な学習フレームワークを用いて、顕微鏡解像度でペア画像と表現プロファイルを用いて参照データセットから低次元の関節埋め込み空間を構築する。
このフレームワークでは、参照データセットからの式プロファイルを使用して、任意のクエリイメージパッチの遺伝子発現をインプットすることができる。
10x Visiumプラットフォームで取得したヒト肝組織データセットのパフォーマンスをベンチマークすることで,遺伝子発現予測におけるBLEEPの有効性を実証した。
以上の結果から,BLEEPは組織構造の基礎となる分子機構を解明し,様々な疾患の診断・研究に重要な意味を持つ可能性が示唆された。
提案手法は, 遺伝子発現プロファイリングに関連する時間とコストを大幅に削減し, 研究および臨床応用のための組織像の高スループット解析のための新たな道を開く。
関連論文リスト
- RankByGene: Gene-Guided Histopathology Representation Learning Through Cross-Modal Ranking Consistency [11.813883157319381]
ランク付けに基づくアライメント損失を用いて、遺伝子と画像の特徴を整列する新しいフレームワークを提案する。
そこで我々は,教師と学生のネットワークアーキテクチャを用いた自己指導型知識蒸留を用いて,アライメントの安定性をさらに向上させる。
論文 参考訳(メタデータ) (2024-11-22T17:08:28Z) - Multiplex Imaging Analysis in Pathology: a Comprehensive Review on Analytical Approaches and Digital Toolkits [0.7968706282619793]
マルチ多重イメージングは、複数のバイオマーカーを1つのセクションで同時に視覚化することを可能にする。
多重画像からのデータは、前処理、セグメンテーション、特徴抽出、空間解析のための洗練された計算方法を必要とする。
PathMLは、画像分析を効率化するAIベースのプラットフォームで、臨床および研究環境では複雑な解釈がアクセス可能である。
論文 参考訳(メタデータ) (2024-11-01T18:02:41Z) - Spatially Resolved Gene Expression Prediction from Histology via Multi-view Graph Contrastive Learning with HSIC-bottleneck Regularization [18.554968935341236]
本稿では,HSIC-bottleneck Regularization (ST-GCHB) を用いたマルチビューグラフ比較学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-18T03:07:25Z) - Morphological Profiling for Drug Discovery in the Era of Deep Learning [13.307277432389496]
形態素プロファイリングの分野における最近の進歩を概観する。
このパイプラインでは、ディープラーニングの適用に特に重点を置いています。
論文 参考訳(メタデータ) (2023-12-13T05:08:32Z) - Single-Cell Deep Clustering Method Assisted by Exogenous Gene
Information: A Novel Approach to Identifying Cell Types [50.55583697209676]
我々は,細胞間のトポロジ的特徴を効率的に捉えるために,注目度の高いグラフオートエンコーダを開発した。
クラスタリング過程において,両情報の集合を統合し,細胞と遺伝子の特徴を再構成し,識別的表現を生成する。
本研究は、細胞の特徴と分布に関する知見を高め、疾患の早期診断と治療の基礎となる。
論文 参考訳(メタデータ) (2023-11-28T09:14:55Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - SEPAL: Spatial Gene Expression Prediction from Local Graphs [1.4523812806185954]
視覚組織の外観から遺伝子プロファイルを予測する新しいモデルであるSEPALを提案する。
本手法は, 平均表現に対する相対差を直接観察することにより, 問題の生物学的バイアスを生かしている。
そこで本研究では,転写学における現在のベストプラクティスに従うことにより,タスクをより適切に定義することを目的とした新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2023-09-02T23:24:02Z) - Unsupervised ensemble-based phenotyping helps enhance the
discoverability of genes related to heart morphology [57.25098075813054]
我々はUn Phenotype Ensemblesという名の遺伝子発見のための新しいフレームワークを提案する。
教師なしの方法で学習された表現型のセットをプールすることで、冗長だが非常に表現性の高い表現を構築する。
これらの表現型は、(GWAS)を介して分析され、高い自信と安定した関連のみを保持する。
論文 参考訳(メタデータ) (2023-01-07T18:36:44Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。