論文の概要: Foundation Models for Zero-Shot Segmentation of Scientific Images without AI-Ready Data
- arxiv url: http://arxiv.org/abs/2506.24039v2
- Date: Sun, 17 Aug 2025 03:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.101008
- Title: Foundation Models for Zero-Shot Segmentation of Scientific Images without AI-Ready Data
- Title(参考訳): AI対応データのない科学画像のゼロショットセグメンテーションのための基礎モデル
- Authors: Shubhabrata Mukherjee, Jack Lang, Obeen Kwon, Iryna Zenyuk, Valerie Brogden, Adam Weber, Daniela Ushizima,
- Abstract要約: 我々は、科学画像におけるデータ準備のボトルネックを軽減するように設計された、ノーコードインタラクティブなコンピュータビジョンプラットフォームであるZenesisを紹介した。
Zenesisは、生の科学データに基づくゼロショット推論のための軽量な適応、ヒューマン・イン・ザ・ループの洗練、および注釈付き時間拡張を統合している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot and prompt-based models have excelled at visual reasoning tasks by leveraging large-scale natural image corpora, but they often fail on sparse and domain-specific scientific image data. We introduce Zenesis, a no-code interactive computer vision platform designed to reduce data readiness bottlenecks in scientific imaging workflows. Zenesis integrates lightweight multimodal adaptation for zero-shot inference on raw scientific data, human-in-the-loop refinement, and heuristic-based temporal enhancement. We validate our approach on Focused Ion Beam Scanning Electron Microscopy (FIB-SEM) datasets of catalyst-loaded membranes. Zenesis outperforms baselines, achieving an average accuracy of 0.947, Intersection over Union (IoU) of 0.858, and Dice score of 0.923 on amorphous catalyst samples; and 0.987 accuracy, 0.857 IoU, and 0.923 Dice on crystalline samples. These results represent a significant performance gain over conventional methods such as Otsu thresholding and standalone models like the Segment Anything Model (SAM). Zenesis enables effective image segmentation in domains where annotated datasets are limited, offering a scalable solution for scientific discovery.
- Abstract(参考訳): ゼロショットおよびプロンプトベースモデルは、大規模な自然画像コーパスを活用することで視覚的推論タスクに優れてきたが、しばしばスパースやドメイン固有の科学的画像データで失敗する。
我々は、科学画像ワークフローにおけるデータ準備のボトルネックを軽減するように設計された、ノーコードインタラクティブなコンピュータビジョンプラットフォームであるZenesisを紹介した。
Zenesisは、生の科学データに基づくゼロショット推論のための軽量なマルチモーダル適応、ヒューマン・イン・ザ・ループの洗練、ヒューリスティックに基づく時間的拡張を統合している。
触媒担持膜の集束イオンビーム走査電子顕微鏡(FIB-SEM)データセットについて検討した。
ゼネシスはベースラインを上回り、平均精度は0.947、インターセクション・オーバーユニオン(IoU)は0.858、ディーススコアは0.923、アモルファス触媒試料は0.987、IoUは0.857、Diceは0.923である。
これらの結果は、大津しきい値法やSAM(Segment Anything Model)のようなスタンドアロンモデルなど、従来の手法よりも大きなパフォーマンス向上を示している。
Zenesisは、アノテーション付きデータセットが制限されたドメインでの効果的なイメージセグメンテーションを可能にし、科学的発見のためのスケーラブルなソリューションを提供する。
関連論文リスト
- Synthesizing Reality: Leveraging the Generative AI-Powered Platform Midjourney for Construction Worker Detection [0.3011426942929757]
本研究では, 建設作業者検出に適した画像合成手法を提案する。
このアプローチでは、3000の異なるプロンプトを定式化することにより、12,000の合成画像のコレクションを生成する。
実画像データセットの評価は有望な結果を得た。
論文 参考訳(メタデータ) (2025-07-17T15:35:27Z) - HistoART: Histopathology Artifact Detection and Reporting Tool [37.31105955164019]
ワイルスライドイメージング(WSI)は、組織標本の詳細な高分解能検査のために広く用いられている。
WSIは、スライドの準備とスキャンの間に導入されたアーティファクトに弱いままです。
本稿では,WSIに対する3つのロバストなアーティファクト検出手法を提案し,比較する。
論文 参考訳(メタデータ) (2025-06-23T17:22:19Z) - Appeal prediction for AI up-scaled Images [45.61706071739717]
136のベースイメージと5つの異なるアップスケーリング手法を用いて構築したデータセットについて述べる。
その結果,Real-ESRGANとBSRGANが最適であることが示唆された。
これに加えて,最先端画像の魅力と品質モデルの評価を行ったが,どのモデルも高い予測性能を示しなかった。
論文 参考訳(メタデータ) (2025-02-19T13:45:24Z) - Efficient Brain Tumor Classification with Lightweight CNN Architecture: A Novel Approach [0.0]
MRI画像を用いた脳腫瘍の分類は、早期かつ正確な検出が患者の予後に大きな影響を及ぼす医療診断において重要である。
近年のディープラーニング(DL)の進歩は将来性を示しているが、多くのモデルは精度と計算効率のバランスに苦慮している。
本稿では,分離可能な畳み込みと圧縮・励振ブロック(SEブロック)を統合した新しいモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-02-01T21:06:42Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - Dataset Distillation for Histopathology Image Classification [46.04496989951066]
病理画像データセット(Histo-DD)に適した新しいデータセット蒸留アルゴリズムを提案する。
提案アルゴリズムの有効性を総合的に評価し, パッチレベルとスライドレベルの両方の分類タスクにおいて, 組織学的サンプルを生成する。
論文 参考訳(メタデータ) (2024-08-19T05:53:38Z) - Distributional Drift Detection in Medical Imaging with Sketching and Fine-Tuned Transformer [2.7552551107566137]
本稿では,CT-Scan医療画像における分布のドリフトを検出するための,高精度かつ高感度なアプローチを提案する。
我々は,リアルタイム異常検出のための堅牢なベースラインライブラリモデルを開発し,画像の効率的な比較を可能にした。
マンモグラフィーをケーススタディとして,訓練済みのビジョントランスモデルを微調整し,関連する特徴を抽出した。
論文 参考訳(メタデータ) (2024-08-15T23:46:37Z) - Accelerating Domain-Aware Electron Microscopy Analysis Using Deep Learning Models with Synthetic Data and Image-Wide Confidence Scoring [0.0]
我々は物理に基づく合成画像とデータ生成装置を作成し、その結果、同等の精度(0.86)、リコール(0.63)、F1スコア(0.71)、エンジニアリング特性予測(R2=0.82)を実現する機械学習モデルを得た。
本研究は,合成データがMLの人間依存を排除し,画像毎に多くの特徴を検出する必要がある場合に,ドメイン認識の手段を提供することを示す。
論文 参考訳(メタデータ) (2024-08-02T20:15:15Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Robust deep learning for eye fundus images: Bridging real and synthetic data for enhancing generalization [0.8599177028761124]
この研究は、合成眼底画像を生成するために10の異なるGANアーキテクチャをAMDなしで比較する。
StyleGAN2は最も低いFrechet Inception Distance(166.17)に達し、臨床医は実際の画像と合成画像とを正確に区別できなかった。
精度はテストセットで82.8%、STAREデータセットで81.3%であり、モデルの一般化可能性を示している。
論文 参考訳(メタデータ) (2022-03-25T18:42:20Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - SCREENet: A Multi-view Deep Convolutional Neural Network for
Classification of High-resolution Synthetic Mammographic Screening Scans [3.8137985834223502]
本研究では,高分解能合成マンモグラム解析のための多視点深層学習手法の開発と評価を行う。
画像解像度とトレーニングセットサイズが精度に与える影響を評価する。
論文 参考訳(メタデータ) (2020-09-18T00:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。