論文の概要: Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images
- arxiv url: http://arxiv.org/abs/2403.17615v1
- Date: Tue, 26 Mar 2024 11:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 15:37:32.172565
- Title: Grad-CAMO: Learning Interpretable Single-Cell Morphological Profiles from 3D Cell Painting Images
- Title(参考訳): Grad-CAMO:3次元細胞絵画画像から解釈可能な単細胞形態を学習する
- Authors: Vivek Gopalakrishnan, Jingzhe Ma, Zhiyong Xie,
- Abstract要約: 教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを紹介する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite their black-box nature, deep learning models are extensively used in image-based drug discovery to extract feature vectors from single cells in microscopy images. To better understand how these networks perform representation learning, we employ visual explainability techniques (e.g., Grad-CAM). Our analyses reveal several mechanisms by which supervised models cheat, exploiting biologically irrelevant pixels when extracting morphological features from images, such as noise in the background. This raises doubts regarding the fidelity of learned single-cell representations and their relevance when investigating downstream biological questions. To address this misalignment between researcher expectations and machine behavior, we introduce Grad-CAMO, a novel single-cell interpretability score for supervised feature extractors. Grad-CAMO measures the proportion of a model's attention that is concentrated on the cell of interest versus the background. This metric can be assessed per-cell or averaged across a validation set, offering a tool to audit individual features vectors or guide the improved design of deep learning architectures. Importantly, Grad-CAMO seamlessly integrates into existing workflows, requiring no dataset or model modifications, and is compatible with both 2D and 3D Cell Painting data. Additional results are available at https://github.com/eigenvivek/Grad-CAMO.
- Abstract(参考訳): ブラックボックスの性質にもかかわらず、深層学習モデルは、顕微鏡画像中の単一細胞から特徴ベクトルを抽出するために画像ベースの薬物発見に広く用いられている。
これらのネットワークがどのように表現学習を行うかをよりよく理解するために、視覚的説明可能性技術(Grad-CAMなど)を用いる。
そこで本研究では,背景雑音などの画像から形態的特徴を抽出する際に,生物学的に無関係な画素を生かし,教師付きモデルを騙す機構を明らかにした。
このことは、学習された単細胞表現の忠実さと下流の生物学的問題の調査におけるそれらの関連性に関する疑念を提起する。
研究者の期待と機械行動の相違に対処するために,教師付き特徴抽出器のための新しい単一セル解釈可能性スコアであるGrad-CAMOを導入する。
Grad-CAMOは、関心の細胞と背景の細胞に集中しているモデルの注意率を測定する。
このメトリクスは、セルごとの評価や検証セットの平均化が可能で、個々の特徴ベクトルを監査したり、ディープラーニングアーキテクチャの改善設計をガイドするツールを提供する。
重要な点として、Grad-CAMOは既存のワークフローにシームレスに統合され、データセットやモデルの変更は不要で、2Dと3DのCell Paintingデータの両方と互換性がある。
追加結果はhttps://github.com/eigenvivek/Grad-CAMO.comで公開されている。
関連論文リスト
- BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - CellCentroidFormer: Combining Self-attention and Convolution for Cell
Detection [4.555723508665994]
顕微鏡画像における細胞検出のためのハイブリッドCNN-ViTモデルを提案する。
センチロイドを用いた細胞検出法は、細胞を楕円体として表現し、エンドツーエンドの訓練を可能にする。
論文 参考訳(メタデータ) (2022-06-01T09:04:39Z) - Learning multi-scale functional representations of proteins from
single-cell microscopy data [77.34726150561087]
局所化分類に基づいて訓練された単純な畳み込みネットワークは、多様な機能情報をカプセル化したタンパク質表現を学習できることを示す。
また,生物機能の異なるスケールでタンパク質表現の質を評価するためのロバストな評価戦略を提案する。
論文 参考訳(メタデータ) (2022-05-24T00:00:07Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - Search for temporal cell segmentation robustness in phase-contrast
microscopy videos [31.92922565397439]
本研究では,3次元コラーゲンマトリックスに埋め込まれた癌細胞を分画する深層学習ワークフローを提案する。
また, 癌細胞形態を研究するための幾何学的特徴付け手法を提案する。
2Dセルのセグメンテーションと追跡のための新しいアノテーション付きデータセットと、実験を再現したり、新しい画像処理問題に適応するためのオープンソース実装を導入する。
論文 参考訳(メタデータ) (2021-12-16T12:03:28Z) - From augmented microscopy to the topological transformer: a new approach
in cell image analysis for Alzheimer's research [0.0]
細胞画像解析は、細胞機能を抑制するA$beta$タンパク質の存在を検出するために、アルツハイマーの研究において重要である。
Unetは,マルチクラスセマンティックスセグメンテーションの性能を比較することで,拡張顕微鏡に最も適していることがわかった。
我々は,Unetモデルを用いて,光電場画像中の原子核を捕捉する拡張顕微鏡法を開発し,入力画像を位相情報列に変換する。
論文 参考訳(メタデータ) (2021-08-03T16:59:33Z) - Enforcing Morphological Information in Fully Convolutional Networks to
Improve Cell Instance Segmentation in Fluorescence Microscopy Images [1.408123603417833]
本稿では,よく知られたU-Netアーキテクチャに基づく新しいセルインスタンス分割手法を提案する。
深部距離変換器(DDT)がバックボーンモデルとして機能する。
その結果,従来のU-Netアーキテクチャよりも性能が向上することが示唆された。
論文 参考訳(メタデータ) (2021-06-10T15:54:38Z) - MOGAN: Morphologic-structure-aware Generative Learning from a Single
Image [59.59698650663925]
近年,1つの画像のみに基づく生成モデルによる完全学習が提案されている。
多様な外観のランダムなサンプルを生成するMOGANというMOrphologic-structure-aware Generative Adversarial Networkを紹介します。
合理的な構造の維持や外観の変化など、内部機能に重点を置いています。
論文 参考訳(メタデータ) (2021-03-04T12:45:23Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。