論文の概要: Predicting fluorescent labels in label-free microscopy images with pix2pix and adaptive loss in Light My Cells challenge
- arxiv url: http://arxiv.org/abs/2406.15716v1
- Date: Sat, 22 Jun 2024 03:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 20:54:52.683752
- Title: Predicting fluorescent labels in label-free microscopy images with pix2pix and adaptive loss in Light My Cells challenge
- Title(参考訳): Light My Cells におけるPix2Pixフリー顕微鏡画像における蛍光ラベルの予測と適応損失
- Authors: Han Liu, Hao Li, Jiacheng Wang, Yubo Fan, Zhoubing Xu, Ipek Oguz,
- Abstract要約: そこで本研究では,Light My Cells チャレンジのためのディープラーニングに基づくサイリコラベリング手法を提案する。
本手法は, シリカラベリングにおける有望な性能を実現する。
- 参考スコア(独自算出の注目度): 12.373115873950296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fluorescence labeling is the standard approach to reveal cellular structures and other subcellular constituents for microscopy images. However, this invasive procedure may perturb or even kill the cells and the procedure itself is highly time-consuming and complex. Recently, in silico labeling has emerged as a promising alternative, aiming to use machine learning models to directly predict the fluorescently labeled images from label-free microscopy. In this paper, we propose a deep learning-based in silico labeling method for the Light My Cells challenge. Built upon pix2pix, our proposed method can be trained using the partially labeled datasets with an adaptive loss. Moreover, we explore the effectiveness of several training strategies to handle different input modalities, such as training them together or separately. The results show that our method achieves promising performance for in silico labeling. Our code is available at https://github.com/MedICL-VU/LightMyCells.
- Abstract(参考訳): 蛍光ラベリングは、顕微鏡画像のための細胞構造やその他の細胞内成分を明らかにするための標準的なアプローチである。
しかし、この侵襲的な処置は細胞を摂動させるか、あるいは死滅させる可能性があり、その手順自体は非常に時間がかかり複雑である。
近年,サイリコラベリングが有望な代替手段として登場し,ラベルなし顕微鏡から蛍光標識画像を直接予測する機械学習モデルが注目されている。
本稿では,Light My Cells チャレンジのための深層学習に基づくサイリコラベリング手法を提案する。
提案手法は,pix2pix上に構築され,適応損失のある部分ラベル付きデータセットを用いて学習することができる。
さらに、異なる入力モダリティを扱うための複数のトレーニング戦略の有効性について検討する。
その結果,本手法はシリカラベリングにおいて有望な性能を達成できることが示唆された。
私たちのコードはhttps://github.com/MedICL-VU/LightMyCells.comで利用可能です。
関連論文リスト
- DiffKillR: Killing and Recreating Diffeomorphisms for Cell Annotation in Dense Microscopy Images [105.46086313858062]
DiffKillRは、アーチェタイプマッチングと画像登録タスクの組み合わせとして、セルアノテーションを再構成する新しいフレームワークである。
我々はDiffKillRの理論的性質について論じ、それを3つの顕微鏡タスクで検証し、既存の教師付き・半教師なし・教師なしの手法に対する利点を実証する。
論文 参考訳(メタデータ) (2024-10-04T00:38:29Z) - Patch-Based Encoder-Decoder Architecture for Automatic Transmitted Light to Fluorescence Imaging Transition: Contribution to the LightMyCells Challenge [2.1640167354628046]
ラベルなし光入力画像から蛍光ラベル付きオルガネラの自動予測は重要な課題であるが難しい課題である。
本稿では, 蛍光標識された核, ミトコンドリア, チューリン, アクチンを自動的に予測するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-03T10:49:34Z) - Practical Guidelines for Cell Segmentation Models Under Optical Aberrations in Microscopy [14.042884268397058]
本研究は,光収差下でのセル画像のセグメンテーションモデルについて,蛍光顕微鏡と光電場顕微鏡を用いて評価する。
ネットワークヘッドの異なるOstoしきい値法やMask R-CNNなどのセグメンテーションモデルをトレーニングし,テストする。
対照的に、Cellpose 2.0は同様の条件下で複雑な細胞画像に有効であることが証明されている。
論文 参考訳(メタデータ) (2024-04-12T15:45:26Z) - Distilling Self-Supervised Vision Transformers for Weakly-Supervised
Few-Shot Classification & Segmentation [58.03255076119459]
視覚変換器(ViT)を利用した弱教師付き小ショット画像分類とセグメンテーションの課題に対処する。
提案手法は,自己監督型ViTからトークン表現を抽出し,その相関関係を利用して分類とセグメンテーションの予測を行う。
Pascal-5iとCOCO-20iの実験は、様々な監視設定において大きなパフォーマンス向上を示した。
論文 参考訳(メタデータ) (2023-07-07T06:16:43Z) - Learning with minimal effort: leveraging in silico labeling for cell and
nucleus segmentation [0.6465251961564605]
In Silico Labeling (ISL) をセグメンテーションタスクの事前学習手法として用いることを提案する。
いくつかのトレーニングセットサイズでセグメンテーション性能を比較することで、このようなスキームは必要なアノテーションの数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2023-01-10T11:35:14Z) - Seamless Iterative Semi-Supervised Correction of Imperfect Labels in
Microscopy Images [57.42492501915773]
生体内試験は、医療機器の毒性に対する動物実験の代替手段である。
人間の疲労は、深層学習を魅力的なものにするために、エラー作成に重要な役割を果たします。
我々は、不完全ラベルのシームレス反復半監督補正(SISSI)を提案する。
本手法は,物体検出に適応的な早期学習補正技術を提供する。
論文 参考訳(メタデータ) (2022-08-05T18:52:20Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - Semi-supervised Contrastive Learning for Label-efficient Medical Image
Segmentation [11.935891325600952]
そこで本研究では,限定的な画素単位のアノテーションを利用して,同じラベルの画素を埋め込み空間に集めるために,教師付き局所的コントラスト損失を提案する。
ラベル付きデータの量が異なるため、我々の手法は、最先端のコントラストベースの手法や他の半教師付き学習技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-15T16:23:48Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Data-Driven Discovery of Molecular Photoswitches with Multioutput
Gaussian Processes [51.17758371472664]
フォトウィッチ可能な分子は、光によってアクセスされる2つ以上の異性体である。
本稿では、データセットキュレーションとマルチタスク学習を基盤とした、分子フォトウィッチのためのデータ駆動探索パイプラインを提案する。
提案手法は, 市販フォトウィッチ可能な分子のライブラリーをスクリーニングし, 実験的に検証した。
論文 参考訳(メタデータ) (2020-06-28T20:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。