論文の概要: GPT4MIA: Utilizing Generative Pre-trained Transformer (GPT-3) as A
Plug-and-Play Transductive Model for Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2302.08722v3
- Date: Tue, 21 Mar 2023 12:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 23:57:18.373968
- Title: GPT4MIA: Utilizing Generative Pre-trained Transformer (GPT-3) as A
Plug-and-Play Transductive Model for Medical Image Analysis
- Title(参考訳): GPT4MIA: 医用画像解析のためのプラグアンドプレイトランスダクティブモデルとしてのGPT-3の利用
- Authors: Yizhe Zhang and Danny Z. Chen
- Abstract要約: 医用画像解析のためのプラグアンドプレイトランスダクティブ推論ツールとして,GPT(Generative Pre-trained Transformer)を提案する。
GPT-3のような大規模事前学習言語モデルがMIAのプラグ・アンド・プレイ・トランスダクティブ推論モデルとして利用できる理由を理論的に分析する。
- 参考スコア(独自算出の注目度): 38.55585456438135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel approach (called GPT4MIA) that utilizes
Generative Pre-trained Transformer (GPT) as a plug-and-play transductive
inference tool for medical image analysis (MIA). We provide theoretical
analysis on why a large pre-trained language model such as GPT-3 can be used as
a plug-and-play transductive inference model for MIA. At the methodological
level, we develop several technical treatments to improve the efficiency and
effectiveness of GPT4MIA, including better prompt structure design, sample
selection, and prompt ordering of representative samples/features. We present
two concrete use cases (with workflow) of GPT4MIA: (1) detecting prediction
errors and (2) improving prediction accuracy, working in conjecture with
well-established vision-based models for image classification (e.g., ResNet).
Experiments validate that our proposed method is effective for these two tasks.
We further discuss the opportunities and challenges in utilizing
Transformer-based large language models for broader MIA applications.
- Abstract(参考訳): 本稿では、医用画像解析(MIA)のためのプラグアンドプレイトランスダクティブ推論ツールとして、GPT(Generative Pre-trained Transformer)を利用した新しいアプローチ(GPT4MIA)を提案する。
GPT-3のような大規模事前学習言語モデルがMIAのプラグアンドプレイトランスダクティブ推論モデルとして利用できる理由を理論的に分析する。
手法レベルでは, GPT4MIAの効率と有効性を改善するために, より優れたプロンプト構造設計, サンプル選択, 代表サンプル/機能の即時順序付けなど, 様々な技術的手法を開発した。
GPT4MIAの具体的なユースケースとして,(1)予測誤差の検出と(2)予測精度の向上,(2)画像分類のためのよく確立されたビジョンベースモデル(ResNetなど)を用いた推測処理を行う。
実験により,提案手法が2つの課題に有効であることを確認した。
さらに、より広範なMIAアプリケーションにTransformerベースの大規模言語モデルを利用する機会と課題について論じる。
関連論文リスト
- Embedded Prompt Tuning: Towards Enhanced Calibration of Pretrained Models for Medical Images [18.094731760514264]
医用画像分類タスクに基礎モデルを適用する際の微調整手法の有効性について検討する。
拡張チャネルにプロンプトトークンを埋め込む組込みプロンプトチューニング(EPT)手法を提案する。
EPTは、数ショットの医用画像分類タスクにおいて、いくつかの最先端の微調整方法よりも顕著に優れている。
論文 参考訳(メタデータ) (2024-07-01T06:35:53Z) - Heuristic-enhanced Candidates Selection strategy for GPTs tackle Few-Shot Aspect-Based Sentiment Analysis [1.5020330976600738]
本論文は、ヒューリスティック・エンハンスド・候補選択戦略を設計し、それに基づくオール・イン・ワン(AiO)モデルを提案する。
このモデルは2段階で動作し、PLMの精度と一般化の能力を同時に調節する。
実験の結果,提案手法は複数のサブタスクに適応し,GPTを直接利用する手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-09T07:02:14Z) - GPT-in-the-Loop: Adaptive Decision-Making for Multiagent Systems [0.8594140167290099]
GPT-in-the-loop"アプローチは,大規模言語モデルの高度な推論機能とマルチエージェントシステムを組み合わせた手法である。
本フレームワークでは,GPT-4を用いて問題解決と説明能力を向上させる。
GPT-4を統合することで、広範囲な訓練を必要とせず、優れた意思決定と適応性を実現することができる。
論文 参考訳(メタデータ) (2023-08-21T03:08:16Z) - Approximated Prompt Tuning for Vision-Language Pre-trained Models [54.326232586461614]
視覚言語による事前学習モデルでは、事前学習タスクと下流タスクのギャップを埋めるために、しばしば多くの学習可能なトークンを必要とする。
本稿では,効率的なVL転送学習を実現するために,APT(Approximated Prompt Tuning)アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-27T05:43:47Z) - Customizing General-Purpose Foundation Models for Medical Report
Generation [64.31265734687182]
ラベル付き医用画像-レポートペアの不足は、ディープニューラルネットワークや大規模ニューラルネットワークの開発において大きな課題となっている。
本稿では,コンピュータビジョンと自然言語処理の基盤モデル (FM) として,市販の汎用大規模事前学習モデルのカスタマイズを提案する。
論文 参考訳(メタデータ) (2023-06-09T03:02:36Z) - An Empirical Analysis of Parameter-Efficient Methods for Debiasing
Pre-Trained Language Models [55.14405248920852]
各種言語モデルとバイアスタイプを用いたプレフィックスチューニング,プロンプトチューニング,アダプタチューニングによる実験を行い,その性能評価を行った。
パラメータ効率のよい手法は、適応調整が常に最も効果的であるジェンダーバイアスを軽減するのに有効であることがわかった。
また、早急なチューニングは、BERTよりもGPT-2に適しており、人種的・宗教的偏見に関しては、人種的・宗教的偏見が低いことが判明した。
論文 参考訳(メタデータ) (2023-06-06T23:56:18Z) - Efficient GPT Model Pre-training using Tensor Train Matrix
Representation [65.96485282393361]
大規模なトランスフォーマーモデルは数十億のパラメータを特徴としており、デプロイが困難になり、スクラッチからトレーニングコストが禁じられている。
GPT-2アーキテクチャのパラメータ数を削減すべく、完全に接続された層の行列を対応するTrain Matrix(TTM)構造に置き換える。
GPTベースのモデルは最大40%のパラメータを格納し、元のモデルに匹敵するパープレキシティを示す。
論文 参考訳(メタデータ) (2023-06-05T08:38:25Z) - GPT-4 Technical Report [116.90398195245983]
GPT-4は大規模なマルチモーダルモデルであり、画像やテキストの入力を受け取り、テキスト出力を生成することができる。
試験受験者の上位10%のスコアで模擬試験に合格するなど、さまざまな専門的、学術的なベンチマークで人間レベルのパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-03-15T17:15:04Z) - Leveraging Pre-trained Models for Failure Analysis Triplets Generation [0.0]
我々は、故障解析トリプレット(FAT)を生成する下流タスクにおいて、トランスフォーマーモデルのような事前訓練された因果言語モデルの注意機構を活用する。
生成事前学習型変換器2(GPT2)は、故障解析三重項生成(FATG)タスクにおいて、他の変換器モデルよりも優れていた。
特に, GPT2(1.5Bパラメータで学習)は, ROUGEにおいて, トレーニング済みBERT, BART, GPT3よりも高い性能を示した。
論文 参考訳(メタデータ) (2022-10-31T17:21:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。