論文の概要: DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images
- arxiv url: http://arxiv.org/abs/2410.03058v1
- Date: Fri, 4 Oct 2024 00:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-03 04:06:08.414739
- Title: DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images
- Title(参考訳): DiffKillR:Dense Microscopy Imagesにおける細胞アノテーションのためのDiffomorphismsの殺害と再生
- Authors: Chen Liu, Danqi Liao, Alejandro Parada-Mayorga, Alejandro Ribeiro, Marcello DiStasio, Smita Krishnaswamy,
- Abstract要約: DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
- 参考スコア(独自算出の注目度): 105.46086313858062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of digital microscopy images, driven by advances in automated whole slide scanning, presents significant opportunities for biomedical research and clinical diagnostics. However, accurately annotating densely packed information in these images remains a major challenge. To address this, we introduce DiffKillR, a novel framework that reframes cell annotation as the combination of archetype matching and image registration tasks. DiffKillR employs two complementary neural networks: one that learns a diffeomorphism-invariant feature space for robust cell matching and another that computes the precise warping field between cells for annotation mapping. Using a small set of annotated archetypes, DiffKillR efficiently propagates annotations across large microscopy images, reducing the need for extensive manual labeling. More importantly, it is suitable for any type of pixel-level annotation. We will discuss the theoretical properties of DiffKillR and validate it on three microscopy tasks, demonstrating its advantages over existing supervised, semi-supervised, and unsupervised methods.
- Abstract(参考訳): 自動スライドスキャンの進歩によって誘導されるデジタル顕微鏡画像の拡散は、生体医学的な研究や臨床診断に重要な機会をもたらす。
しかし、これらの画像に密集した情報を正確に注釈付けすることは大きな課題である。
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとしてセルアノテーションを再構成する新しいフレームワークである。
DiffKillRは、堅牢な細胞マッチングのために微分同相不変の特徴空間を学習するニューラルネットワークと、アノテーションマッピングのために細胞間の正確なワープフィールドを計算するニューラルネットワークを2つ採用している。
注釈付きアーチタイプの小さなセットを使用して、DiffKillRは、大きな顕微鏡画像間でアノテーションを効率よく伝播し、広範囲な手動ラベリングの必要性を減らす。
さらに重要なのは、どんな種類のピクセルレベルのアノテーションにも適しています。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
関連論文リスト
- BlurryScope: a cost-effective and compact scanning microscope for automated HER2 scoring using deep learning on blurry image data [0.0]
ブルリスコープ(BlurryScope)は、組織部位の自動検査・解析のための費用効率が高くコンパクトなソリューションである。
BlurryScopeは、特殊なハードウェアとニューラルネットワークベースのモデルを統合して、モーションレッドな組織像を処理する。
論文 参考訳(メタデータ) (2024-10-23T04:46:36Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Semi-supervised Cell Recognition under Point Supervision [7.536526198969589]
ポイントベースの細胞認識(PCR)法は通常、大量のアノテーションを必要とする。
半教師付きポイントベース細胞認識(SSPCR)はほとんど見落とされ続けている。
本稿では,エンド・ツー・エンドのPCRモデルに適したSSPCRフレームワークを初めて開発する。
論文 参考訳(メタデータ) (2023-06-14T04:56:31Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - 3D fluorescence microscopy data synthesis for segmentation and
benchmarking [0.9922927990501083]
3次元蛍光顕微鏡のための現実的な画像データを生成するために、条件付き生成対向ネットワークを利用することができる。
細胞構造のさらなる位置条件付けにより、位置依存的な強度特性の再構築が可能となる。
パッチワイド動作原理とその後のフルサイズ再組み立て戦略を用いて、任意のサイズと異なる生物の画像データを生成する。
論文 参考訳(メタデータ) (2021-07-21T16:08:56Z) - Microscopic fine-grained instance classification through deep attention [7.50282814989294]
限られたサンプルを用いた微視的画像データのきめ細かい分類は、コンピュータビジョンとバイオメディカルイメージングにおいて未解決の問題である。
本稿では,エンドツーエンドで2つのタスクを同時に実行する,シンプルで効果的なディープネットワークを提案する。
その結果、堅牢だが軽量なエンドツーエンドのトレーニング可能なディープネットワークが実現し、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-10-06T15:29:58Z) - Graph Neural Networks for UnsupervisedDomain Adaptation of
Histopathological ImageAnalytics [22.04114134677181]
組織像解析のための教師なし領域適応のための新しい手法を提案する。
特徴空間に画像を埋め込むバックボーンと、ラベルで画像の監視信号をプロパゲートするグラフニューラルネットワーク層に基づいている。
実験では、4つの公開データセット上での最先端のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-08-21T04:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。