論文の概要: CytoCLIP: Learning Cytoarchitectural Characteristics in Developing Human Brain Using Contrastive Language Image Pre-Training
- arxiv url: http://arxiv.org/abs/2601.12282v1
- Date: Sun, 18 Jan 2026 06:42:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.549078
- Title: CytoCLIP: Learning Cytoarchitectural Characteristics in Developing Human Brain Using Contrastive Language Image Pre-Training
- Title(参考訳): CytoCLIP:コントラスト言語画像を用いたヒト脳構築における細胞構造的特徴の学習
- Authors: Pralaypati Ta, Sriram Venkatesaperumal, Keerthi Ram, Mohanasankar Sivaprakasam,
- Abstract要約: CytoCLIPは、訓練済みのContrastive Language-Image Pre-Trainingフレームワークから派生したビジョン言語モデルのスイートである。
1つは低解像度の全体領域画像を用いて訓練され、領域の全体構造パターンを理解する。
低解像度画像には86の異なる領域があり、高解像度タイルには384の脳領域がある。
- 参考スコア(独自算出の注目度): 2.802396222178503
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The functions of different regions of the human brain are closely linked to their distinct cytoarchitecture, which is defined by the spatial arrangement and morphology of the cells. Identifying brain regions by their cytoarchitecture enables various scientific analyses of the brain. However, delineating these areas manually in brain histological sections is time-consuming and requires specialized knowledge. An automated approach is necessary to minimize the effort needed from human experts. To address this, we propose CytoCLIP, a suite of vision-language models derived from pre-trained Contrastive Language-Image Pre-Training (CLIP) frameworks to learn joint visual-text representations of brain cytoarchitecture. CytoCLIP comprises two model variants: one is trained using low-resolution whole-region images to understand the overall cytoarchitectural pattern of an area, and the other is trained on high-resolution image tiles for detailed cellular-level representation. The training dataset is created from NISSL-stained histological sections of developing fetal brains of different gestational weeks. It includes 86 distinct regions for low-resolution images and 384 brain regions for high-resolution tiles. We evaluate the model's understanding of the cytoarchitecture and generalization ability using region classification and cross-modal retrieval tasks. Multiple experiments are performed under various data setups, including data from samples of different ages and sectioning planes. Experimental results demonstrate that CytoCLIP outperforms existing methods. It achieves an F1 score of 0.87 for whole-region classification and 0.91 for high-resolution image tile classification.
- Abstract(参考訳): ヒトの脳の異なる領域の機能は、細胞の空間配置と形態によって定義される個々の細胞構造と密接に関連している。
細胞構造による脳領域の同定は、脳の様々な科学的分析を可能にする。
しかし、これらの領域を手動で脳の組織学的セクションに記述することは時間がかかり、専門的な知識を必要とする。
人間の専門家が必要とする労力を最小限にするためには、自動化されたアプローチが必要である。
そこで我々は,脳細胞構築の視覚テキスト表現を学習するために,事前学習したコントラスト言語-画像事前訓練(CLIP)フレームワークから派生した視覚言語モデルであるCytoCLIPを提案する。
CytoCLIPには2つのモデルがある: 1つは低解像度の全体領域画像を用いて訓練され、もう1つは詳細な細胞レベルでの表現のために高解像度の画像タイルで訓練される。
トレーニングデータセットは、異なる妊娠週の胎児脳を発達させるNISSLの組織学的セクションから作成される。
低解像度画像には86の異なる領域があり、高解像度タイルには384の脳領域がある。
我々は、領域分類とクロスモーダル検索タスクを用いて、細胞構造と一般化能力に対するモデルの理解を評価する。
複数の実験は、異なる年齢のサンプルや分割平面のデータを含む、さまざまなデータ設定の下で実施される。
実験の結果,CytoCLIPは既存の手法よりも優れていた。
F1スコアは全領域分類で0.87、高解像度画像タイル分類で0.91となる。
関連論文リスト
- SPATIA: Multimodal Model for Prediction and Generation of Spatial Cell Phenotypes [39.45743286683448]
本研究では,空間転写学のマルチスケール生成予測モデルであるSPATIAを紹介する。
SPATIAは、画像由来のモルフォロジートークンと転写ベクタートークンを融合させることで、細胞レベルの埋め込みを学習する。
われわれはSPATIAを12のタスクにまたがる13の既存モデルに対してベンチマークする。
論文 参考訳(メタデータ) (2025-07-07T06:54:02Z) - CSBrain: A Cross-scale Spatiotemporal Brain Foundation Model for EEG Decoding [57.90382885533593]
脳波信号の一般化のためのクロススケール時空間脳基盤モデルを提案する。
CSBrainはタスク固有のベースラインと基盤モデルのベースラインを一貫して上回ります。
これらの結果は、CSBrainを将来の脳-AI研究の強力なバックボーンとして、重要な帰納バイアスとして、クロススケールモデリングを確立している。
論文 参考訳(メタデータ) (2025-06-29T03:29:34Z) - CISCA and CytoDArk0: a Cell Instance Segmentation and Classification method for histo(patho)logical image Analyses and a new, open, Nissl-stained dataset for brain cytoarchitecture studies [0.19791587637442667]
組織学的スライスにおけるセルインスタンスの自動セグメンテーションと分類のための新しいディープラーニングフレームワークCISCAを提案する。
CISCAの中核は、軽量なU-Netとデコーダに3つの頭を持つネットワークアーキテクチャである。
我々はCISCAを他の最先端手法と比較し、その汎用性、堅牢性、およびセグメンテーションと分類における精度を実証した。
論文 参考訳(メタデータ) (2024-09-06T10:34:06Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - NCIS: Deep Color Gradient Maps Regression and Three-Class Pixel
Classification for Enhanced Neuronal Cell Instance Segmentation in
Nissl-Stained Histological Images [0.5273938705774914]
本稿では,Nissl-stained histological image of the brainにおいて,単一神経細胞を自動分離するエンド・ツー・エンドの枠組みを提案する。
エンコーダとしてEfficientNetと2つのデコードブランチを備えたU-Netライクなアーキテクチャを用いて、4つの勾配カラーマップを復元し、ピクセルをタッチセル、細胞体、背景の間の輪郭に分類する。
この方法は大脳皮質と小脳の画像でテストされ、最近の深層学習による細胞のインスタンス分割のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-06-27T20:22:04Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Multiclass Semantic Segmentation to Identify Anatomical Sub-Regions of
Brain and Measure Neuronal Health in Parkinson's Disease [2.288652563296735]
現在、脳の解剖下領域を分析して2次元の組織像を分析する機械学習モデルは利用できない。
本研究では,Nissl/HaematoxylinおよびTyrosine hydroxylase酵素(TH,ドーパミン作動性ニューロンの生存率の指標)で染色した約1000個のアノテート2次元脳画像を用いて,ベストフィットモデルを訓練した。
このモデルは、すべての画像において2つのサブリージョンコンパクト(SNCD)とレチキュラタ(SNr)を効果的に検出できる。
論文 参考訳(メタデータ) (2023-01-07T19:35:28Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Contrastive Representation Learning for Whole Brain Cytoarchitectonic
Mapping in Histological Human Brain Sections [0.4588028371034407]
本稿では,顕微鏡画像パッチを頑健な微細構造特徴に符号化するための対照的な学習手法を提案する。
この学習課題を用いて事前学習したモデルは、最近提案された補助課題に基づいて事前学習したモデルと同様に、スクラッチから訓練したモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T16:44:23Z) - Convolutional Neural Networks for cytoarchitectonic brain mapping at
large scale [0.33727511459109777]
今回我々は,ヒト後脳の多数の細胞体染色組織における細胞構造学的領域をマッピングするための新しいワークフローを提案する。
これはDeep Convolutional Neural Network (CNN)に基づいており、アノテーション付きの一対のセクションイメージに基づいてトレーニングされており、その間に多数の注釈のないセクションがある。
新しいワークフローは、セクションの3D再構成を必要とせず、組織学的アーティファクトに対して堅牢である。
論文 参考訳(メタデータ) (2020-11-25T16:25:13Z) - Multi-Site Infant Brain Segmentation Algorithms: The iSeg-2019 Challenge [53.48285637256203]
iSeg 2019 Challengeは、さまざまなプロトコル/スキャナーを持つ複数のサイトから6ヶ月の乳児のセットを提供する。
執筆時点では、iSeg 2019には30の自動セグメンテーションメソッドが参加している。
私たちは、パイプライン/実装の詳細を説明し、実験結果を示し、脳全体、関心領域、ジャラルランドマークカーブの観点からパフォーマンスを評価することで、上位8チームについてレビューします。
論文 参考訳(メタデータ) (2020-07-04T13:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。