論文の概要: A Technology-aided Multi-modal Training Approach to Assist Abdominal
Palpation Training and its Assessment in Medical Education
- arxiv url: http://arxiv.org/abs/2001.05745v1
- Date: Thu, 16 Jan 2020 11:31:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 01:05:58.038640
- Title: A Technology-aided Multi-modal Training Approach to Assist Abdominal
Palpation Training and its Assessment in Medical Education
- Title(参考訳): 医療教育における腹痛訓練支援のための技術支援型マルチモーダルトレーニングアプローチとその評価
- Authors: A. Asadipour, K. Debattista, V. Patel, A. Chalmers
- Abstract要約: 器用なハンズオン検査(クリニック・パペーション)を行う能力の欠如は、症状の誤診、重傷、あるいは死に至る可能性がある。
本稿では,腹部に関する臨床検査技術を指導し,改善するマルチモーダル・パプリケーション・トレーニング・システムについて述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computer-assisted multimodal training is an effective way of learning complex
motor skills in various applications. In particular disciplines (eg.
healthcare) incompetency in performing dexterous hands-on examinations
(clinical palpation) may result in misdiagnosis of symptoms, serious injuries
or even death. Furthermore, a high quality clinical examination can help to
exclude significant pathology, and reduce time and cost of diagnosis by
eliminating the need for unnecessary medical imaging. Medical palpation is used
regularly as an effective preliminary diagnosis method all around the world but
years of training are required currently to achieve competency. This paper
focuses on a multimodal palpation training system to teach and improve clinical
examination skills in relation to the abdomen. It is our aim to shorten
significantly the palpation training duration by increasing the frequency of
rehearsals as well as providing essential augmented feedback on how to perform
various abdominal palpation techniques which has been captured and modelled
from medical experts. Twenty three first year medical students divided into a
control group (n=8), a semi-visually trained group (n=8), and a fully visually
trained group (n=7) were invited to perform three palpation tasks (superficial,
deep and liver). The medical students performances were assessed using both
computer-based and human-based methods where a positive correlation was shown
between the generated scores, r=.62, p(one-tailed)<.05. The visually-trained
group significantly outperformed the control group in which abstract
visualisation of applied forces and their palmar locations were provided to the
students during each palpation examination (p<.05). Moreover, a positive trend
was observed between groups when visual feedback was presented, J=132, z=2.62,
r=0.55.
- Abstract(参考訳): コンピュータ支援マルチモーダルトレーニングは、様々な応用において複雑な運動能力を学ぶ効果的な方法である。
特定の分野(医療など)において、器用なハンズオン検査を行う能力の欠如は、症状の誤診、重傷、さらには死に至る可能性がある。
さらに、高品質な臨床検査は、不要な医用画像の必要性をなくし、重要な病理学を除外し、診断の時間とコストを削減するのに役立つ。
医学的触診は、世界中の効果的な予備診断方法として定期的に用いられるが、能力を得るためには、現在何年もの訓練が必要である。
本稿では,腹部に関する臨床検査スキルの指導と改善を目的としたマルチモーダル触診訓練システムについて述べる。
本研究の目的は,リハーサルの頻度を増大させることで,触覚訓練期間を大幅に短縮することであり,また,医療専門家から収集・モデル化された各種腹腔鏡下手術の実施方法に関する重要なフィードバックを提供することである。
初年度の医学生は,コントロールグループ(n=8),セミビジュアルトレーニンググループ(n=8),フルビジュアルトレーニンググループ(n=7)に分けて3つの手術(上,深,肝)を行った。
医療学生の成績は,r=.62,p(one-tailed)<.05。
視力訓練群は, 視力と掌側位置の抽象的視覚化を学生に提供したコントロール群よりも有意に優れていた(p<.05。
また,j=132,z=2.62,r=0.55の群間で正の傾向が認められた。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Optimizing Skin Lesion Classification via Multimodal Data and Auxiliary
Task Integration [54.76511683427566]
本研究は, スマートフォンで撮影した画像と本質的な臨床および人口統計情報を統合することで, 皮膚病変を分類する新しいマルチモーダル手法を提案する。
この手法の特徴は、超高解像度画像予測に焦点を当てた補助的なタスクの統合である。
PAD-UFES20データセットを用いて,様々なディープラーニングアーキテクチャを用いて実験を行った。
論文 参考訳(メタデータ) (2024-02-16T05:16:20Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Joint Prediction of Meningioma Grade and Brain Invasion via Task-Aware
Contrastive Learning [27.87673051695757]
マルチモーダルMRIによる髄膜腫グレードと脳浸潤を共同で予測するタスク認識型コントラスト学習アルゴリズムを提案する。
基本的なマルチタスク学習フレームワークに基づいて、画像特徴をタスク固有の機能とタスク共通機能に分解するコントラスト学習戦略を採用する。
実験の結果,提案アルゴリズムは代替マルチタスク学習法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-04T02:50:47Z) - HealNet -- Self-Supervised Acute Wound Heal-Stage Classification [2.3552433352583155]
本稿では,(a)創傷の時間力学の埋め込みの学習,(b)自動段階発見のためのクラスタリング,(c)微調整分類からなる自己指導型学習手法を提案する。
提案された自己教師型フレキシブルな学習フレームワークは、生物学的にインスパイアされ、人間のラベルがゼロの小さなデータセットで訓練されている。
論文 参考訳(メタデータ) (2022-06-21T17:09:05Z) - Learn2Reg: comprehensive multi-task medical image registration
challenge, dataset and evaluation in the era of deep learning [19.267693026491482]
Learn2Regは、脳、腹部、胸部、超音波、CT、MRI、人口、患者内および患者間、監督レベルなど幅広い解剖学をカバーしている。
堅牢性、正確性、可視性、スピードなど、我々の補完的な指標は、医用画像登録の現状について独自の洞察を与えてくれる。
論文 参考訳(メタデータ) (2021-12-08T09:46:39Z) - Incremental Cross-Domain Adaptation for Robust Retinopathy Screening via
Bayesian Deep Learning [7.535751594024775]
網膜症は、タイムリーに治療されないと、深刻な視覚障害や失明を引き起こす網膜疾患のグループである。
本稿では, 深い分類モデルを用いて, 異常網膜病理を段階的に学習することのできる, 漸進的なクロスドメイン適応手法を提案する。
提案したフレームワークは、6つの公開データセットで評価され、全体的な精度とF1スコアをそれぞれ0.9826と0.9846で達成することで、最先端の競合他社を上回っている。
論文 参考訳(メタデータ) (2021-10-18T13:45:21Z) - Evaluating the Robustness of Self-Supervised Learning in Medical Imaging [57.20012795524752]
自己監督は、小さな注釈付きデータセット上でターゲットタスクを訓練する際の効果的な学習戦略であることを示した。
本研究では,自己監視学習によって訓練されたネットワークが,医療画像の文脈における完全監視学習と比較して,堅牢性と汎用性に優れていることを示した。
論文 参考訳(メタデータ) (2021-05-14T17:49:52Z) - Big Self-Supervised Models Advance Medical Image Classification [36.23989703428874]
医療画像分類のための前訓練戦略としての自己監督学習の有効性を検討する。
本研究では,患者1例当たりの病理の複数の画像を用いたマルチインスタンスコントラスト学習(MICLe)法を提案する。
大規模な自己教師型モデルでは分布シフトに頑健であり,少数のラベル付き医療画像を用いて効率よく学習できることを示す。
論文 参考訳(メタデータ) (2021-01-13T17:36:31Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。