論文の概要: ImmuVis: Hyperconvolutional Foundation Model for Imaging Mass Cytometry
- arxiv url: http://arxiv.org/abs/2602.04585v1
- Date: Wed, 04 Feb 2026 14:11:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.565507
- Title: ImmuVis: Hyperconvolutional Foundation Model for Imaging Mass Cytometry
- Title(参考訳): ImmuVis: 質量サイトメトリーのための超畳み込み基盤モデル
- Authors: Marcin Możejko, Dawid Uchal, Krzysztof Gogolewski, Piotr Kupidura, Szymon Łukasik, Jakub Giezgała, Tomasz Nocoń, Kacper Pietrzyk, Robert Pieniuta, Mateusz Sulimowicz, Michal Orzyłowski, Tomasz Siłkowski, Karol Zagródka, Eike Staub, Ewa Szczurek,
- Abstract要約: 質量校正法(IMC)の効率的な畳み込み基盤モデルであるImmuVisを提案する。
ImmuVisは学習マーカー埋め込みから畳み込みカーネルを生成し、単一のモデルを任意のマーカーサブセット上で再トレーニングすることなく動作させることができる。
これらの結果は、ImmuVisを実世界のIMCモデリングのための実用的で効率的な基礎モデルとして位置づけている。
- 参考スコア(独自算出の注目度): 0.06397698438137943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ImmuVis, an efficient convolutional foundation model for imaging mass cytometry (IMC), a high-throughput multiplex imaging technology that handles molecular marker measurements as image channels and enables large-scale spatial tissue profiling. Unlike natural images, multiplex imaging lacks a fixed channel space, as real-world marker sets vary across studies, violating a core assumption of standard vision backbones. To address this, ImmuVis introduces marker-adaptive hyperconvolutions that generate convolutional kernels from learned marker embeddings, enabling a single model to operate on arbitrary measured marker subsets without retraining. We pretrain ImmuVis on the largest to-date dataset, IMC17M (28 cohorts, 24,405 images, 265 markers, over 17M patches), using self-supervised masked reconstruction. ImmuVis outperforms SOTA baselines and ablations in virtual staining and downstream classification tasks at substantially lower compute cost than transformer-based alternatives, and is the sole model that provides calibrated uncertainty via a heteroscedastic likelihood objective. These results position ImmuVis as a practical, efficient foundation model for real-world IMC modeling.
- Abstract(参考訳): 分子マーカー測定を画像チャネルとして処理し,大規模空間組織プロファイリングを可能にする高スループット多重イメージング技術であるIMC(Mass cytometry)の効率的な畳み込み基盤モデルであるImmuVisを提案する。
自然画像とは異なり、マルチプレックスイメージングには固定されたチャネル空間がなく、現実世界のマーカーセットは研究によって異なるため、標準的な視覚バックボーンのコア仮定に違反する。
この問題を解決するために、ImmuVisは学習マーカー埋め込みから畳み込みカーネルを生成するマーカー適応型ハイパー畳み込みを導入し、単一のモデルを任意のマーカーサブセット上で再トレーニングすることなく操作できるようにする。
我々は、ImmuVisを過去最大のデータセットであるIMC17M(28コホート、24,405イメージ、265マーカー、17Mパッチ)に、自己監視マスクによる再構築を用いて事前訓練した。
ImmuVisは、仮想染色および下流分類タスクにおいて、トランスフォーマーベースの代替よりもかなり低い計算コストでSOTAベースラインと改善を上回り、ヘテロセダスティックな可能性の目的を通じてキャリブレーションされた不確実性を提供する唯一のモデルである。
これらの結果は、ImmuVisを実世界のIMCモデリングのための実用的で効率的な基礎モデルとして位置づけている。
関連論文リスト
- Machine-learning-enabled interpretation of tribological deformation patterns in large-scale MD data [0.0]
CuNi合金シミュレーションから得られた結晶配向色トモグラフ画像は、まずオートエンコーダを通して32次元のグローバル特徴ベクトルに圧縮された。
再構成された画像は、最良欠陥のみを省略しつつ、粒界、積み重ね断層、双生児、部分格子回転といった重要なミクロ構造モチーフを保持していた。
支配的な変形パターンを予測するCNN-MLPモデルは、検証データに対して約96%の予測精度を達成する。
論文 参考訳(メタデータ) (2025-12-05T15:39:13Z) - MSDM: Generating Task-Specific Pathology Images with a Multimodal Conditioned Diffusion Model for Cell and Nuclei Segmentation [0.3650448386461648]
セルと核のセグメンテーションのための画素精度画像-マスクペアを生成するためのマルチモーダルセマンティック拡散モデルを提案する。
生成過程を細胞核形態で条件付けすることで、MSDMは所望のモルフォロジー特性を持つデータセストを生成する。
細胞・核セグメンテーションモデルの堅牢性と一般化性を向上させるために,多モード拡散に基づく拡張の有効性を強調した。
論文 参考訳(メタデータ) (2025-10-10T08:23:14Z) - Unsupervised Modality Adaptation with Text-to-Image Diffusion Models for Semantic Segmentation [54.96563068182733]
セグメンテーションタスクのためのテキスト・ツー・イメージ拡散モデル(MADM)を用いたモダリティ適応を提案する。
MADMは、広範囲な画像とテキストのペアで事前訓練されたテキストと画像の拡散モデルを使用して、モデルの相互モダリティ能力を向上する。
我々は,MADMが画像から深度,赤外線,イベントのモダリティといった様々なモダリティタスクにまたがって,最先端の適応性能を実現することを示す。
論文 参考訳(メタデータ) (2024-10-29T03:49:40Z) - A Comparative Study of CNN, ResNet, and Vision Transformers for Multi-Classification of Chest Diseases [0.0]
ビジョントランスフォーマー(ViT)は、そのスケーラビリティと大量のデータを処理する能力のため、強力なツールである。
NIH Chest X-rayデータセットを用いて、ImageNetで事前トレーニングされたモデルと、スクラッチからトレーニングされたモデルである2種類のViTモデルを微調整した。
本研究は,14の異なる疾患の多ラベル分類において,これらのモデルの性能を評価するものである。
論文 参考訳(メタデータ) (2024-05-31T23:56:42Z) - Efficient Visual State Space Model for Image Deblurring [99.54894198086852]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
提案したEVSSMは、ベンチマークデータセットや実世界の画像に対する最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Cross-modal tumor segmentation using generative blending augmentation and self training [1.6440045168835438]
本稿では,新しいデータ拡張手法によって強化された従来の画像合成に基づくクロスモーダルセグメンテーション手法を提案する。
Generative Blending Augmentation (GBA)は、単一のトレーニング画像から代表的生成特徴を学習し、腫瘍の外観を現実的に多様化させる。
提案手法は,MICCAI CrossMoDA 2022 チャレンジの検証および試験段階において,前庭神経ショーノマ(VS)セグメンテーションにおいて第1位となった。
論文 参考訳(メタデータ) (2023-04-04T11:01:46Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Affinity Feature Strengthening for Accurate, Complete and Robust Vessel
Segmentation [48.638327652506284]
血管セグメンテーションは、冠動脈狭窄、網膜血管疾患、脳動脈瘤などの多くの医学的応用において重要である。
コントラストに敏感なマルチスケールアフィニティアプローチを用いて,幾何学的手法と画素単位のセグメンテーション特徴を連成的にモデル化する新しいアプローチであるAFNを提案する。
論文 参考訳(メタデータ) (2022-11-12T05:39:17Z) - Negligible effect of brain MRI data preprocessing for tumor segmentation [36.89606202543839]
我々は3つの公開データセットの実験を行い、ディープニューラルネットワークにおける異なる前処理ステップの効果を評価する。
その結果、最も一般的な標準化手順は、ネットワーク性能に何の価値も与えないことが示されている。
画像の規格化に伴う信号分散の低減のため,画像強度正規化手法はモデル精度に寄与しない。
論文 参考訳(メタデータ) (2022-04-11T17:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。