論文の概要: Foundation Models for Zero-Shot Segmentation of Scientific Images without AI-Ready Data
- arxiv url: http://arxiv.org/abs/2506.24039v1
- Date: Mon, 30 Jun 2025 16:45:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.160055
- Title: Foundation Models for Zero-Shot Segmentation of Scientific Images without AI-Ready Data
- Title(参考訳): AI対応データのない科学画像のゼロショットセグメンテーションのための基礎モデル
- Authors: Shubhabrata Mukherjee, Jack Lang, Obeen Kwon, Iryna Zenyuk, Valerie Brogden, Adam Weber, Daniela Ushizima,
- Abstract要約: Zenesisは、科学画像のデータ準備によって生じる障壁を最小限に抑えるために設計された、包括的なノーコードインタラクティブプラットフォームである。
我々は、生の科学データに対するゼロショット操作を可能にする軽量なマルチモーダル適応技術を開発した。
この結果は,特に高品質なアノテートデータセットが利用できない分野において,Zenesisは科学的応用の強力なツールであることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot and prompt-based technologies capitalized on using frequently occurring images to transform visual reasoning tasks, which explains why such technologies struggle with valuable yet scarce scientific image sets. In this work, we propose Zenesis, a comprehensive no-code interactive platform designed to minimize barriers posed by data readiness for scientific images. We develop lightweight multi-modal adaptation techniques that enable zero-shot operation on raw scientific data, along with human-in-the-loop refinement and heuristic-based temporal enhancement options. We demonstrate the performance of our approach through comprehensive comparison and validation on challenging Focused Ion Beam Scanning Electron Microscopy (FIB-SEM) data of catalyst-loaded membranes. Zenesis significantly outperforms baseline methods, achieving an average accuracy of 0.947, an Intersection over Union (IOU) of 0.858, and a Dice score of 0.923 for amorphous catalyst samples and accuracy of 0.987, an IOU of 0.857, and a Dice score of 0.923 for crystalline samples. These results mark a substantial improvement over traditional methods like Otsu thresholding and even advanced models like Segment Anything Model (SAM) when used in isolation. Our results demonstrate that Zenesis is a powerful tool for scientific applications, particularly in fields where high-quality annotated datasets are unavailable, accelerating accurate analysis of experimental imaging.
- Abstract(参考訳): ゼロショットとプロンプトベースの技術は、頻繁に発生する画像を使って視覚的推論タスクを変換する。
本研究では,科学画像のデータの可読性による障壁を最小限に抑えるための,包括的ノンコード対話型プラットフォームZenesisを提案する。
我々は,人間のループ内改良とヒューリスティックに基づく時間的拡張オプションとともに,生の科学データに対するゼロショット操作を可能にする軽量なマルチモーダル適応技術を開発した。
触媒担持膜の集束イオンビーム走査電子顕微鏡(FIB-SEM)データに対する包括的比較と検証により,本手法の有効性を実証した。
ゼネシスは, 平均精度0.947, 一致率0.858, アモルファス触媒試料のDiceスコア0.923, 触媒試料のIOU0.957, 結晶試料のDiceスコア0.923,
これらの結果は、Ostoのしきい値設定のような従来の方法や、Segment Anything Model(SAM)のような先進的なモデルよりも大幅に改善されている。
以上の結果から,Zenesisは特に高品質なアノテートデータセットが利用できない分野において,科学的応用のための強力なツールであり,実験画像の正確な解析を加速することが示された。
関連論文リスト
- Efficient Brain Tumor Classification with Lightweight CNN Architecture: A Novel Approach [0.0]
MRI画像を用いた脳腫瘍の分類は、早期かつ正確な検出が患者の予後に大きな影響を及ぼす医療診断において重要である。
近年のディープラーニング(DL)の進歩は将来性を示しているが、多くのモデルは精度と計算効率のバランスに苦慮している。
本稿では,分離可能な畳み込みと圧縮・励振ブロック(SEブロック)を統合した新しいモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-01T21:06:42Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - Dataset Distillation for Histopathology Image Classification [46.04496989951066]
病理画像データセット(Histo-DD)に適した新しいデータセット蒸留アルゴリズムを提案する。
提案アルゴリズムの有効性を総合的に評価し, パッチレベルとスライドレベルの両方の分類タスクにおいて, 組織学的サンプルを生成する。
論文 参考訳(メタデータ) (2024-08-19T05:53:38Z) - Distributional Drift Detection in Medical Imaging with Sketching and Fine-Tuned Transformer [2.7552551107566137]
本稿では,CT-Scan医療画像における分布のドリフトを検出するための,高精度かつ高感度なアプローチを提案する。
我々は,リアルタイム異常検出のための堅牢なベースラインライブラリモデルを開発し,画像の効率的な比較を可能にした。
マンモグラフィーをケーススタディとして,訓練済みのビジョントランスモデルを微調整し,関連する特徴を抽出した。
論文 参考訳(メタデータ) (2024-08-15T23:46:37Z) - Accelerating Domain-Aware Electron Microscopy Analysis Using Deep Learning Models with Synthetic Data and Image-Wide Confidence Scoring [0.0]
我々は物理に基づく合成画像とデータ生成装置を作成し、その結果、同等の精度(0.86)、リコール(0.63)、F1スコア(0.71)、エンジニアリング特性予測(R2=0.82)を実現する機械学習モデルを得た。
本研究は,合成データがMLの人間依存を排除し,画像毎に多くの特徴を検出する必要がある場合に,ドメイン認識の手段を提供することを示す。
論文 参考訳(メタデータ) (2024-08-02T20:15:15Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization [0.8599177028761124]
この研究は、合成眼底画像を生成するために10の異なるGANアーキテクチャをAMDなしで比較する。
StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
論文 参考訳(メタデータ) (2022-03-25T18:42:20Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。