論文の概要: mViSE: A Visual Search Engine for Analyzing Multiplex IHC Brain Tissue Images
- arxiv url: http://arxiv.org/abs/2512.11745v1
- Date: Fri, 12 Dec 2025 17:39:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.858217
- Title: mViSE: A Visual Search Engine for Analyzing Multiplex IHC Brain Tissue Images
- Title(参考訳): mViSE: 多重IHC脳組織画像解析のためのビジュアル検索エンジン
- Authors: Liqiang Huang, Rachel W. Mills, Saikiran Mandula, Lin Bai, Mahtab Jeyhani, John Redell, Hien Van Nguyen, Saurabh Prasad, Dragan Maric, Badrinath Roysam,
- Abstract要約: 脳組織の全スライディング多重画像は、カスタムソフトウェアの分析と要求が難しい大量の情報密度画像を生成する。
我々は,多面的脳組織の化学構造を学習する多面的視覚検索エンジン (mViSE) を用いたクエリ駆動型プログラミングフリー戦略を提案する。
- 参考スコア(独自算出の注目度): 4.9561476671121465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole-slide multiplex imaging of brain tissue generates massive information-dense images that are challenging to analyze and require custom software. We present an alternative query-driven programming-free strategy using a multiplex visual search engine (mViSE) that learns the multifaceted brain tissue chemoarchitecture, cytoarchitecture, and myeloarchitecture. Our divide-and-conquer strategy organizes the data into panels of related molecular markers and uses self-supervised learning to train a multiplex encoder for each panel with explicit visual confirmation of successful learning. Multiple panels can be combined to process visual queries for retrieving similar communities of individual cells or multicellular niches using information-theoretic methods. The retrievals can be used for diverse purposes including tissue exploration, delineating brain regions and cortical cell layers, profiling and comparing brain regions without computer programming. We validated mViSE's ability to retrieve single cells, proximal cell pairs, tissue patches, delineate cortical layers, brain regions and sub-regions. mViSE is provided as an open-source QuPath plug-in.
- Abstract(参考訳): 脳組織の全スライディング多重画像は、カスタムソフトウェアの分析と要求が難しい大量の情報密度画像を生成する。
我々は,多面的視覚検索エンジン(mViSE)を用いて,多面的脳組織ケモアーキテクチャー,サイトアーキテクチャー,ミエロアーキテクチャーを学習するクエリ駆動型プログラミングフリー戦略を提案する。
我々の分母戦略は、データを関連する分子マーカーのパネルに整理し、自己教師付き学習を用いて各パネルの多重化エンコーダをトレーニングし、学習成功の明確な視覚的確認を行う。
複数のパネルを組み合わせることで、情報理論手法を用いて、個々の細胞や多細胞ニッチの類似したコミュニティを検索するためのビジュアルクエリを処理できる。
この検索は、組織探索、脳の領域と皮質の細胞層の説明、プロファイリング、コンピュータプログラミングなしでの脳の領域の比較など、様々な目的に利用できる。
我々は,mViSEの単一細胞,近位細胞ペア,組織パッチ,皮質層,脳領域,サブリージョンを抽出する能力を検証する。
mViSEはオープンソースのQuPathプラグインとして提供されている。
関連論文リスト
- BrainMAP: Learning Multiple Activation Pathways in Brain Networks [77.15180533984947]
本稿では,脳ネットワークにおける複数の活性化経路を学習するための新しいフレームワークであるBrainMAPを紹介する。
本フレームワークは,タスクに関わる重要な脳領域の説明的分析を可能にする。
論文 参考訳(メタデータ) (2024-12-23T09:13:35Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - Wills Aligner: Multi-Subject Collaborative Brain Visual Decoding [19.538200208523467]
Wills Alignerは、多目的協調脳視覚デコーディングを実現するための新しいアプローチである。
Wills Aligner氏はまず、解剖学的レベルで異なる被験者のfMRIデータを調整することから始める。
次に、微妙なブライン・オブ・ブライン・エキスパート・アダプターと、個々のfMRIパターンの違いを考慮に入れたメタラーニング戦略を用いる。
論文 参考訳(メタデータ) (2024-04-20T06:01:09Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - Chat2Brain: A Method for Mapping Open-Ended Semantic Queries to Brain
Activation Maps [59.648646222905235]
そこで本研究では,テキスト2画像モデルであるText2BrainにLLMを組み合わせ,セマンティッククエリを脳活性化マップにマッピングするChat2Brainを提案する。
テキストクエリのより複雑なタスクに対して、Chat2Brainが可塑性なニューラルアクティベーションパターンを合成できることを実証した。
論文 参考訳(メタデータ) (2023-09-10T13:06:45Z) - Identifying Shared Decodable Concepts in the Human Brain Using
Image-Language Foundation Models [2.213723689024101]
高品質な事前学習型マルチモーダル表現を利用して、人間の脳内のきめ細かいセマンティックネットワークを探索する手法を提案する。
このような脳の領域を特定するために,我々は,大規模な機能的磁気共鳴画像(fMRI)データセットからデオード可能な視覚概念を明らかにするために,データ駆動型アプローチを開発した。
論文 参考訳(メタデータ) (2023-06-06T03:29:47Z) - MTNeuro: A Benchmark for Evaluating Representations of Brain Structure
Across Multiple Levels of Abstraction [0.0]
脳のマッピングでは、画像を自動的に解析して、小さな特徴とグローバルな特性の両方の表現を構築することは、決定的かつオープンな課題である。
我々のベンチマーク(MTNeuro)は、マウス脳の広い領域にまたがる体積分解能X線マイクロトモグラフィー画像に基づいている。
我々は様々な予測課題を生み出し、脳領域予測と画素レベルの微構造セマンティックセマンティックセグメンテーションのための教師付きおよび自己教師型モデルを評価した。
論文 参考訳(メタデータ) (2023-01-01T04:54:03Z) - Multi-Modal Masked Autoencoders for Medical Vision-and-Language
Pre-Training [62.215025958347105]
マルチモーダルマスク付きオートエンコーダを用いた自己教師型学習パラダイムを提案する。
我々は、ランダムにマスキングされた画像やテキストから欠落したピクセルやトークンを再構成することで、クロスモーダルなドメイン知識を学習する。
論文 参考訳(メタデータ) (2022-09-15T07:26:43Z) - Scope2Screen: Focus+Context Techniques for Pathology Tumor Assessment in
Multivariate Image Data [0.0]
Scope2Screenは、全スライディング、ハイプレックス、組織像のフォーカス+コンテキスト探索とアノテーションのためのスケーラブルなソフトウェアシステムである。
我々のアプローチは、数百万のセルを含む1チャンネルあたり109ピクセル以上の100GBの画像を分析するためにスケールする。
単細胞および組織レベルで機能する対話型レンズ技術を提案する。
論文 参考訳(メタデータ) (2021-10-10T18:34:13Z) - Convolutional Neural Networks for cytoarchitectonic brain mapping at
large scale [0.33727511459109777]
今回我々は,ヒト後脳の多数の細胞体染色組織における細胞構造学的領域をマッピングするための新しいワークフローを提案する。
これはDeep Convolutional Neural Network (CNN)に基づいており、アノテーション付きの一対のセクションイメージに基づいてトレーニングされており、その間に多数の注釈のないセクションがある。
新しいワークフローは、セクションの3D再構成を必要とせず、組織学的アーティファクトに対して堅牢である。
論文 参考訳(メタデータ) (2020-11-25T16:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。