論文の概要: Active Prompt Tuning Enables Gpt-40 To Do Efficient Classification Of Microscopy Images
- arxiv url: http://arxiv.org/abs/2411.02639v1
- Date: Mon, 04 Nov 2024 21:56:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:37.522143
- Title: Active Prompt Tuning Enables Gpt-40 To Do Efficient Classification Of Microscopy Images
- Title(参考訳): Active Prompt Tuningは、顕微鏡画像の効率的な分類を可能にするGpt-40
- Authors: Abhiram Kandiyana, Peter R. Mouton, Yaroslav Kolinko, Lawrence O. Hall, Dmitry Goldgof,
- Abstract要約: 顕微鏡画像中の細胞の特徴を分類する従来のディープラーニングベースの手法は、トレーニングモデルに時間と労働集約的なプロセスを必要とする。
我々は以前、パイロットデータセット上でOpenAIのGPT-4(V)モデルを使用してこれらの課題を克服するソリューションを提案した。
パイロットデータセットの結果は精度が同等で、ベースラインに比べてスループットが大幅に向上した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Traditional deep learning-based methods for classifying cellular features in microscopy images require time- and labor-intensive processes for training models. Among the current limitations are major time commitments from domain experts for accurate ground truth preparation; and the need for a large amount of input image data. We previously proposed a solution that overcomes these challenges using OpenAI's GPT-4(V) model on a pilot dataset (Iba-1 immuno-stained tissue sections from 11 mouse brains). Results on the pilot dataset were equivalent in accuracy and with a substantial improvement in throughput efficiency compared to the baseline using a traditional Convolutional Neural Net (CNN)-based approach. The present study builds upon this framework using a second unique and substantially larger dataset of microscopy images. Our current approach uses a newer and faster model, GPT-4o, along with improved prompts. It was evaluated on a microscopy image dataset captured at low (10x) magnification from cresyl-violet-stained sections through the cerebellum of a total of 18 mouse brains (9 Lurcher mice, 9 wild-type controls). We used our approach to classify these images either as a control group or Lurcher mutant. Using 6 mice in the prompt set the results were correct classification for 11 out of the 12 mice (92%) with 96% higher efficiency, reduced image requirements, and lower demands on time and effort of domain experts compared to the baseline method (snapshot ensemble of CNN models). These results confirm that our approach is effective across multiple datasets from different brain regions and magnifications, with minimal overhead.
- Abstract(参考訳): 顕微鏡画像中の細胞の特徴を分類する従来のディープラーニングベースの手法は、トレーニングモデルに時間と労働集約的なプロセスを必要とする。
現在の制限の中には、正確な基礎的な真実の準備のためのドメインの専門家による主要な時間的コミットメントや、大量の入力画像データの必要性がある。
我々は以前,パイロットデータセットを用いたOpenAIのGPT-4(V)モデルを用いて,これらの課題を克服するソリューションを提案した。
パイロットデータセットの結果は精度が同等で、従来の畳み込みニューラルネットワーク(CNN)ベースのアプローチによるベースラインに比べてスループット効率が大幅に向上した。
本研究は,顕微鏡画像の2番目の特徴的,実質的に大きなデータセットを用いて,この枠組みを構築した。
現在のアプローチでは、改良されたプロンプトとともに、より新しくより高速なモデルであるGPT-4oを使用します。
マウス18頭脳(9マウス、野生型9頭)の脳小脳を通して、クレシル-紫外染色片から低(10倍)の倍率で撮像された顕微鏡画像データセットを用いて評価した。
我々は、これらの画像を制御群またはLurcher変異体として分類するために、我々のアプローチを利用した。
6マウスをプロンプトセットに用いた結果,12マウス中11マウス(92%)に対して,96%の効率性,画像要求の低減,ドメインエキスパートの時間と労力に対する要求の低下を基準法(CNNモデルのスナップショットアンサンブル)と比較した。
これらの結果から,脳領域や拡大領域の複数のデータセットに対して,オーバーヘッドを最小限に抑えたアプローチが有効であることが確認された。
関連論文リスト
- Masked Autoencoders for Microscopy are Scalable Learners of Cellular Biology [2.7280901660033643]
本研究は、弱教師付き分類器と自己教師付きマスク付きオートエンコーダ(MAE)のスケーリング特性について検討する。
以上の結果から,ViTをベースとしたMAEは,様々なタスクにおいて弱い教師付き分類器よりも優れており,公的なデータベースから得られた既知の生物学的関係を思い出すと,11.5%の相対的な改善が達成されることがわかった。
我々は、異なる数のチャネルと順序の画像を推論時に入力できる新しいチャネルに依存しないMAEアーキテクチャ(CA-MAE)を開発した。
論文 参考訳(メタデータ) (2024-04-16T02:42:06Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Localization and Classification of Parasitic Eggs in Microscopic Images
Using an EfficientDet Detector [0.0]
寄生卵を局在させ,11種に分類するマルチモーダル学習検出器を提案する。
その結果,92%の精度で頑健な成績を示し,F1スコアは93%であった。
論文 参考訳(メタデータ) (2022-08-03T10:28:18Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Classification of Microscopy Images of Breast Tissue: Region Duplication
based Self-Supervision vs. Off-the Shelf Deep Representations [0.0]
本稿では、畳み込みニューラルネットワーク(CNN)を訓練し、ドメイン固有の特徴を抽出する、新しい自己超越プレテキストタスクを提案する。
その結果,ResNet50を用いて抽出した深部機能に対して,パッチレベルの埋め込みを併用した99%の感度の最高の性能が得られた。
論文 参考訳(メタデータ) (2022-02-12T14:12:13Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Learning to segment clustered amoeboid cells from brightfield microscopy
via multi-task learning with adaptive weight selection [6.836162272841265]
マルチタスク学習パラダイムにおけるセルセグメンテーションのための新しい教師付き手法を提案する。
ネットワークの予測効率を向上させるために、領域とセル境界検出に基づくマルチタスク損失の組み合わせを用いる。
検証セットで全体のDiceスコアが0.93であり、これは最近の教師なし手法で15.9%以上の改善であり、一般的な教師付きU-netアルゴリズムを平均5.8%以上上回っている。
論文 参考訳(メタデータ) (2020-05-19T11:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。