論文の概要: PainFormer: a Vision Foundation Model for Automatic Pain Assessment
- arxiv url: http://arxiv.org/abs/2505.01571v1
- Date: Fri, 02 May 2025 20:29:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.179683
- Title: PainFormer: a Vision Foundation Model for Automatic Pain Assessment
- Title(参考訳): PainFormer: 自動痛み評価のためのビジョンファウンデーションモデル
- Authors: Stefanos Gkikas, Raul Fernandez Rojas, Manolis Tsiknakis,
- Abstract要約: 痛みは人口のかなりの割合に影響を与える多様体条件である。
本研究では,マルチタスク学習原理に基づく視覚基盤モデルPainFormerを紹介する。
PainFormerは様々な入力モードから高品質な埋め込みを効果的に抽出する。
- 参考スコア(独自算出の注目度): 2.8028723950211476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pain is a manifold condition that impacts a significant percentage of the population. Accurate and reliable pain evaluation for the people suffering is crucial to developing effective and advanced pain management protocols. Automatic pain assessment systems provide continuous monitoring and support decision-making processes, ultimately aiming to alleviate distress and prevent functionality decline. This study introduces PainFormer, a vision foundation model based on multi-task learning principles trained simultaneously on 14 tasks/datasets with a total of 10.9 million samples. Functioning as an embedding extractor for various input modalities, the foundation model provides feature representations to the Embedding-Mixer, a transformer-based module that performs the final pain assessment. Extensive experiments employing behavioral modalities-including RGB, synthetic thermal, and estimated depth videos-and physiological modalities such as ECG, EMG, GSR, and fNIRS revealed that PainFormer effectively extracts high-quality embeddings from diverse input modalities. The proposed framework is evaluated on two pain datasets, BioVid and AI4Pain, and directly compared to 73 different methodologies documented in the literature. Experiments conducted in unimodal and multimodal settings demonstrate state-of-the-art performances across modalities and pave the way toward general-purpose models for automatic pain assessment.
- Abstract(参考訳): 痛みは人口のかなりの割合に影響を与える多様体条件である。
患者に対する正確な痛み評価は、効果的で高度な痛み管理プロトコルの開発に不可欠である。
自動痛み評価システムは、継続的な監視と意思決定プロセスのサポートを提供し、究極的には、苦痛を軽減し、機能の低下を防ぐことを目的としている。
この研究では、14のタスク/データセットと合計109万のサンプルを同時にトレーニングしたマルチタスク学習原則に基づくビジョン基盤モデルであるPainFormerを紹介した。
様々な入力モダリティの埋め込み抽出器として機能し、最終的な痛み評価を行うトランスフォーマーベースのモジュールである Embedding-Mixer に特徴表現を提供する。
RGB, 合成熱, 推定深度ビデオおよびECG, EMG, GSR, fNIRSなどの生理学的モダリティを用いた大規模実験により, PainFormerが多種多様な入力モダリティから高品質な埋め込みを効果的に抽出できることが判明した。
提案フレームワークは,BioVidとAI4Painの2つの痛みデータセットを用いて評価し,文献に記録されている73の異なる方法論と直接比較した。
一過性および多モーダルな設定で実施された実験は、モダリティ全体にわたる最先端のパフォーマンスを示し、自動痛み評価のための汎用モデルへの道を開いた。
関連論文リスト
- SemiHVision: Enhancing Medical Multimodal Models with a Semi-Human Annotated Dataset and Fine-Tuned Instruction Generation [13.672776832197918]
MLLM(Multimodal large language model)は大きな進歩を遂げているが、専門知識が限られているため、医療分野の課題に直面している。
データ収集やモデル微調整,評価など,エンドツーエンドの学習パイプラインのさまざまな段階において,このギャップに対処することを目指している。
論文 参考訳(メタデータ) (2024-10-19T02:35:35Z) - Twins-PainViT: Towards a Modality-Agnostic Vision Transformer Framework for Multimodal Automatic Pain Assessment using Facial Videos and fNIRS [0.9668407688201359]
The First Multimodal Sensing Grand Challenge for Next-Gen Pain Assessment (AI4PAIN)に応募した。
提案するマルチモーダルフレームワークは,顔ビデオとfNIRSを利用して,ドメイン固有モデルの必要性を軽減し,モダリティに依存しないアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-29T09:02:43Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - Wearable-based Fair and Accurate Pain Assessment Using Multi-Attribute Fairness Loss in Convolutional Neural Networks [4.451479907610764]
臨床的な痛み評価におけるAIの採用は、パーソナライゼーションや公平性といった課題によって妨げられている。
機械学習やディープラーニングを含む多くのAIモデルは偏見を示し、性別や民族に基づいて特定のグループを識別する。
本稿では、データ中の保護属性を考慮に入れたマルチ属性フェアネス損失(MAFL)に基づく畳み込みニューラルネットワーク(CNN)モデルを提案する。
論文 参考訳(メタデータ) (2023-07-03T09:21:36Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - Towards dynamic multi-modal phenotyping using chest radiographs and
physiological data [3.11179491890629]
本稿では,モダリティ固有のデータ表現を学習し,補助的特徴を統合するための動的トレーニング手法を提案する。
MIMIC-IVおよび胸部X線写真を用いたMIMIC-CXRデータセットを用いた患者表現型検索の予備実験を行った。
このことは、表現型タスクにおける胸部画像モダリティの活用の利点を示し、医療応用におけるマルチモーダル学習の可能性を強調している。
論文 参考訳(メタデータ) (2021-11-04T09:41:00Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。