論文の概要: ISG: I can See Your Gene Expression
- arxiv url: http://arxiv.org/abs/2210.16728v1
- Date: Sun, 30 Oct 2022 02:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:36:44.431704
- Title: ISG: I can See Your Gene Expression
- Title(参考訳): ISG:あなたの遺伝子発現を見ることができます
- Authors: Yan Yang and LiYuan Pan and Liu Liu and Eric A Stone
- Abstract要約: 本稿では,組織スライド画像から遺伝子発現を正確に予測することを目的とする。
このようなスライド画像は、解像度が大きく、わずかに分散したテクスチャを有する。
既存の遺伝子発現法は主に汎用成分を用いて、テクスチャレス領域をフィルタリングし、特徴を抽出し、各領域を均一に集約する。
3つの新しいモジュールによるテクスチャ境界領域からの識別的特徴間の相互作用を利用するISGフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.148183268830879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to predict gene expression from a histology slide image
precisely. Such a slide image has a large resolution and sparsely distributed
textures. These obstruct extracting and interpreting discriminative features
from the slide image for diverse gene types prediction. Existing gene
expression methods mainly use general components to filter textureless regions,
extract features, and aggregate features uniformly across regions. However,
they ignore gaps and interactions between different image regions and are
therefore inferior in the gene expression task. Instead, we present ISG
framework that harnesses interactions among discriminative features from
texture-abundant regions by three new modules: 1) a Shannon Selection module,
based on the Shannon information content and Solomonoff's theory, to filter out
textureless image regions; 2) a Feature Extraction network to extract
expressive low-dimensional feature representations for efficient region
interactions among a high-resolution image; 3) a Dual Attention network attends
to regions with desired gene expression features and aggregates them for the
prediction task. Extensive experiments on standard benchmark datasets show that
the proposed ISG framework outperforms state-of-the-art methods significantly.
- Abstract(参考訳): 本稿では,組織スライド画像から遺伝子発現を正確に予測することを目的とする。
このようなスライド画像は大きな解像度と分散したテクスチャを有する。
これらの障害は、スライド画像から識別的特徴を抽出・解釈し、多様な遺伝子型を予測する。
既存の遺伝子発現法は主に汎用成分を用いて、テクスチャレス領域をフィルタリングし、特徴を抽出し、各領域を均一に集約する。
しかし、異なる画像領域間のギャップや相互作用を無視するため、遺伝子発現タスクでは劣る。
代わりに,テクスチャ不明瞭領域からの識別特徴間のインタラクションを3つの新しいモジュールで活用するisgフレームワークを提案する。
1)シャノン情報内容及びソロモンフ理論に基づくシャノン選択モジュールは、テクスチャのない画像領域をフィルタする。
2)高解像度画像間の効率的な領域相互作用のための表現的低次元特徴表現を抽出する特徴抽出ネットワーク
3)デュアルアテンションネットワークは、所望の遺伝子発現特徴を持つ領域に参加し、予測タスクのためにそれらを集約する。
標準ベンチマークデータセットに関する広範な実験は、提案されたisgフレームワークが最先端のメソッドを大幅に上回っていることを示している。
関連論文リスト
- High-Resolution Spatial Transcriptomics from Histology Images using HisToSGE [1.3124513975412255]
HisToSGEは、組織像から高分解能な遺伝子発現プロファイルを生成する。
HisToSGEは高解像度の遺伝子発現プロファイルを生成し、下流タスクを実行するのに優れている。
論文 参考訳(メタデータ) (2024-07-30T03:29:57Z) - Cross-modal Diffusion Modelling for Super-resolved Spatial Transcriptomics [5.020980014307814]
空間転写学は、発見研究のための組織内の空間遺伝子発現を特徴づけることができる。
超高分解能アプローチは、組織像とプロファイルされた組織スポットの遺伝子発現を統合することでSTマップを強化することを約束する。
本稿では, 組織像の誘導による超解像STマップのクロスモーダル拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-04-19T16:01:00Z) - DCN-T: Dual Context Network with Transformer for Hyperspectral Image
Classification [109.09061514799413]
複雑な撮像条件による空間変動のため,HSI分類は困難である。
本稿では,HSIを高品質な三スペクトル画像に変換する三スペクトル画像生成パイプラインを提案する。
提案手法は,HSI分類における最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-04-19T18:32:52Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Multiscale Analysis for Improving Texture Classification [62.226224120400026]
本稿では,テクスチャの異なる空間周波数帯域を別々に扱うために,ガウス・ラプラシアピラミッドを用いる。
バイオインスパイアされたテクスチャ記述子,情報理論測度,灰色レベルの共起行列特徴,ハリリック統計特徴から抽出した特徴を特徴ベクトルに集約した。
論文 参考訳(メタデータ) (2022-04-21T01:32:22Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - Low-Rank Subspaces in GANs [101.48350547067628]
この研究は、GAN生成をより正確に制御できる低ランクな部分空間を導入している。
LowRankGAN は属性多様体の低次元表現を見つけることができる。
さまざまなデータセットでトレーニングされた最先端のGANモデル(StyleGAN2やBigGANなど)の実験は、私たちのLowRankGANの有効性を示しています。
論文 参考訳(メタデータ) (2021-06-08T16:16:32Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。