論文の概要: Transformers in Healthcare: A Survey
- arxiv url: http://arxiv.org/abs/2307.00067v1
- Date: Fri, 30 Jun 2023 18:14:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 18:11:29.671182
- Title: Transformers in Healthcare: A Survey
- Title(参考訳): 医療におけるトランスフォーマー:調査
- Authors: Subhash Nerella, Sabyasachi Bandyopadhyay, Jiaqing Zhang, Miguel
Contreras, Scott Siegel, Aysegul Bumin, Brandon Silva, Jessica Sena, Benjamin
Shickel, Azra Bihorac, Kia Khezeli, Parisa Rashidi
- Abstract要約: Transformerは、当初、汎用自然言語処理(NLP)タスクを解決するために開発されたディープラーニングアーキテクチャの一種である。
本稿では, 医療画像, 構造化・非構造化電子健康記録(EHR), ソーシャルメディア, 生理信号, 生体分子配列など, 様々な形態のデータを解析するために, このアーキテクチャがどのように採用されてきたのかを概説する。
医療におけるトランスフォーマーの利用のメリットと限界について議論し、計算コスト、モデル解釈可能性、公正性、人的価値との整合性、倫理的含意、環境影響などの問題を検討する。
- 参考スコア(独自算出の注目度): 11.189892739475633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With Artificial Intelligence (AI) increasingly permeating various aspects of
society, including healthcare, the adoption of the Transformers neural network
architecture is rapidly changing many applications. Transformer is a type of
deep learning architecture initially developed to solve general-purpose Natural
Language Processing (NLP) tasks and has subsequently been adapted in many
fields, including healthcare. In this survey paper, we provide an overview of
how this architecture has been adopted to analyze various forms of data,
including medical imaging, structured and unstructured Electronic Health
Records (EHR), social media, physiological signals, and biomolecular sequences.
Those models could help in clinical diagnosis, report generation, data
reconstruction, and drug/protein synthesis. We identified relevant studies
using the Preferred Reporting Items for Systematic Reviews and Meta-Analyses
(PRISMA) guidelines. We also discuss the benefits and limitations of using
transformers in healthcare and examine issues such as computational cost, model
interpretability, fairness, alignment with human values, ethical implications,
and environmental impact.
- Abstract(参考訳): 人工知能(AI)が医療を含む社会の様々な側面に浸透するにつれ、トランスフォーマーニューラルネットワークアーキテクチャの採用は多くのアプリケーションに急速に変化している。
Transformerは、当初、汎用自然言語処理(NLP)タスクを解決するために開発されたディープラーニングアーキテクチャの一種であり、その後、医療を含む多くの分野に適応した。
本稿では, 医療画像, 構造化・非構造化電子健康記録(EHR), ソーシャルメディア, 生理信号, 生体分子配列など, 様々な形態のデータを解析するために, この構造がどのように採用されてきたかについて概説する。
これらのモデルは、臨床診断、レポート生成、データ再構成、薬物/タンパク質合成に役立つ。
本研究は,PRISMAガイドライン(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)を用いて検討した。
また、医療におけるトランスフォーマーの使用のメリットと限界についても論じ、計算コスト、モデル解釈可能性、公正性、人的価値との整合性、倫理的含意、環境影響などの問題を考察する。
関連論文リスト
- Zero Shot Health Trajectory Prediction Using Transformer [11.660997334071952]
ETHOS(Enhanced Transformer for Health Outcome Simulation)は、健康データ解析のためのトランスフォーマーディープラーニングアーキテクチャの新しい応用である。
ETHOSは、将来の健康軌道を予測するために、患者健康時間線(PHT)の詳細とトークン化された健康イベントの記録を使用して訓練されている。
論文 参考訳(メタデータ) (2024-07-30T18:33:05Z) - Transformers-based architectures for stroke segmentation: A review [0.6554326244334866]
ストロークは依然として重要な世界的な健康上の問題であり、タイムリーな介入と患者の成果を改善するために正確かつ効率的な診断ツールを必要とする。
当初自然言語処理用に設計されたトランスフォーマーは、医療画像解析を含む様々なコンピュータビジョンアプリケーションで顕著な能力を発揮している。
このレビューは,脳卒中セグメンテーションの文脈で適用された最先端のTransformerベースのアーキテクチャを詳細に調査することを目的としている。
論文 参考訳(メタデータ) (2024-03-27T14:42:08Z) - Improved EATFormer: A Vision Transformer for Medical Image Classification [0.0]
本稿では,ビジョントランスフォーマを用いた医用画像分類のための改良されたアルゴリズムベースのトランスフォーマアーキテクチャを提案する。
提案したEATFormerアーキテクチャは、畳み込みニューラルネットワークとビジョントランスフォーマーの長所を組み合わせたものだ。
Chest X-rayデータセットとKvasirデータセットの実験結果から,提案したEATFormerはベースラインモデルと比較して予測速度と精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-03-19T21:40:20Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - A Comprehensive Review of Generative AI in Healthcare [0.0]
生成AIモデル、特にトランスフォーマーと拡散モデルは、多様な形式のデータを分析する上で重要な役割を担っている。
これらのモデルは、医用画像、タンパク質構造予測、臨床ドキュメント、診断補助、放射線学解釈、臨床診断支援、医用コーディング、請求など、様々な種類のデータを分析する上で重要な役割を果たしてきた。
本稿では、トランスフォーマーと拡散モデルに焦点をあて、医療における生成AI応用の概要を概観することを目的とする。
論文 参考訳(メタデータ) (2023-10-01T21:13:14Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Advances in Medical Image Analysis with Vision Transformers: A
Comprehensive Review [6.953789750981636]
医療画像におけるトランスフォーマーの応用に関する百科事典のレビューを行う。
具体的には,医療画像解析タスクにおけるトランスフォーマー関連文献の体系的,徹底的なレビューを行う。
論文 参考訳(メタデータ) (2023-01-09T16:56:23Z) - Transformers in Medical Imaging: A Survey [88.03790310594533]
トランスフォーマーはいくつかのコンピュータビジョン問題に適用され、最先端の結果が得られた。
医療画像はまた、局所受容野を持つCNNと比較して、グローバルな文脈を捉えられるトランスフォーマーへの関心が高まっている。
本稿では,最近提案された建築設計から未解決問題に至るまで,医療画像におけるトランスフォーマーの応用について概説する。
論文 参考訳(メタデータ) (2022-01-24T18:50:18Z) - Medical Transformer: Gated Axial-Attention for Medical Image
Segmentation [73.98974074534497]
医用画像分割タスクにおけるトランスフォーマティブネットワークアーキテクチャの利用可能性について検討する。
セルフアテンションモジュールに追加の制御機構を導入することで,既存のアーキテクチャを拡張するGated Axial-Attentionモデルを提案する。
医療画像上で効果的にモデルを訓練するために,さらにパフォーマンスを向上させる局所的グローバルトレーニング戦略 (logo) を提案する。
論文 参考訳(メタデータ) (2021-02-21T18:35:14Z) - Domain Shift in Computer Vision models for MRI data analysis: An
Overview [64.69150970967524]
機械学習とコンピュータビジョン手法は、医用画像解析において優れた性能を示している。
しかし、現在臨床応用はごくわずかである。
異なるソースや取得ドメインのデータへのモデルの不適切な転送性は、その理由の1つです。
論文 参考訳(メタデータ) (2020-10-14T16:34:21Z) - Machine Learning in Nano-Scale Biomedical Engineering [77.75587007080894]
ナノスケールバイオメディカルエンジニアリングにおける機械学習の利用に関する既存の研究について概説する。
ML問題として定式化できる主な課題は、3つの主要なカテゴリに分類される。
提示された方法論のそれぞれについて、その原則、応用、制限に特に重点を置いている。
論文 参考訳(メタデータ) (2020-08-05T15:45:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。