論文の概要: Motion2Meaning: A Clinician-Centered Framework for Contestable LLM in Parkinson's Disease Gait Interpretation
- arxiv url: http://arxiv.org/abs/2512.08934v1
- Date: Tue, 21 Oct 2025 12:04:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.400179
- Title: Motion2Meaning: A Clinician-Centered Framework for Contestable LLM in Parkinson's Disease Gait Interpretation
- Title(参考訳): Motion2Meaning: パーキンソン病の歩行解析における可視性LLMのための臨床中心的フレームワーク
- Authors: Loc Phuc Truong Nguyen, Hung Thanh Do, Hung Truong Thanh Nguyen, Hung Cao,
- Abstract要約: Motion2Meaningは、Contestable AIを前進させるクリニック中心のフレームワークである。
システムを構成する3つの重要なコンポーネントは、歩行データ可視化インタフェース(GDVI)、1次元畳み込みニューラルネットワーク(1D-CNN)で、Hoehn & Yahrの重大度を予測し、Contestable Interface(CII)である。
XMEDは、誤った予測における説明の不一致の5倍の増大を検出することにより、モデル不確実性をうまく識別する。
我々のLCMを利用したインタフェースにより、臨床医は正しい予測を検証し、モデルのエラーの一部に挑戦できる。
- 参考スコア(独自算出の注目度): 0.8230528541914085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI-assisted gait analysis holds promise for improving Parkinson's Disease (PD) care, but current clinical dashboards lack transparency and offer no meaningful way for clinicians to interrogate or contest AI decisions. To address this issue, we present Motion2Meaning, a clinician-centered framework that advances Contestable AI through a tightly integrated interface designed for interpretability, oversight, and procedural recourse. Our approach leverages vertical Ground Reaction Force (vGRF) time-series data from wearable sensors as an objective biomarker of PD motor states. The system comprises three key components: a Gait Data Visualization Interface (GDVI), a one-dimensional Convolutional Neural Network (1D-CNN) that predicts Hoehn & Yahr severity stages, and a Contestable Interpretation Interface (CII) that combines our novel Cross-Modal Explanation Discrepancy (XMED) safeguard with a contestable Large Language Model (LLM). Our 1D-CNN achieves 89.0% F1-score on the public PhysioNet gait dataset. XMED successfully identifies model unreliability by detecting a five-fold increase in explanation discrepancies in incorrect predictions (7.45%) compared to correct ones (1.56%), while our LLM-powered interface enables clinicians to validate correct predictions and successfully contest a portion of the model's errors. A human-centered evaluation of this contestable interface reveals a crucial trade-off between the LLM's factual grounding and its readability and responsiveness to clinical feedback. This work demonstrates the feasibility of combining wearable sensor analysis with Explainable AI (XAI) and contestable LLMs to create a transparent, auditable system for PD gait interpretation that maintains clinical oversight while leveraging advanced AI capabilities. Our implementation is publicly available at: https://github.com/hungdothanh/motion2meaning.
- Abstract(参考訳): AI支援歩行分析は、パーキンソン病(PD)ケアを改善することを約束するが、現在の臨床ダッシュボードには透明性がなく、臨床医がAI決定を尋問したり、反対したりする意味のある方法がない。
この問題に対処するために、私たちは、解釈可能性、監視、手続き的リコースのために設計された密に統合されたインターフェースを通じて、Contestable AIを前進させる、クリニック中心のフレームワークであるMotion2Meaningを紹介します。
本手法は、PDモータ状態の客観的バイオマーカーとして、ウェアラブルセンサからの垂直地中反応力(vGRF)時系列データを活用する。
このシステムは、歩行データ可視化インタフェース(GDVI)、1次元畳み込みニューラルネットワーク(1D-CNN)で、Hoehn & Yahrの重大度を予測し、CII(Contestable Interpretation Interface)で、我々の小説『XMED(Cross-Modal Explanation Discrepancy)』(XMED)と競合可能なLarge Language Model(LLM)を組み合わせる。
我々の1D-CNNは、公開PhyloNet歩行データセットで89.0%のF1スコアを達成した。
XMEDは,誤予測における説明不一致の5倍増加(7.45%)を検出することで,モデルの信頼性の検証に成功している。
この競合するインターフェースを人間中心で評価することで、LCMの事実的根拠と臨床フィードバックに対する可読性と応答性の間に重要なトレードオフが明らかになる。
この研究は、ウェアラブルセンサー分析と説明可能なAI(XAI)と競合可能なLLMを組み合わせることで、高度なAI能力を活用しながら臨床上の監視を維持するPD歩行解釈のための透明で監査可能なシステムを構築する可能性を示している。
私たちの実装は、https://github.com/hungdothanh/motion2 meaningで公開されています。
関連論文リスト
- MIRNet: Integrating Constrained Graph-Based Reasoning with Pre-training for Diagnostic Medical Imaging [67.74482877175797]
MIRNetは、自己教師付き事前学習と制約付きグラフベースの推論を統合する新しいフレームワークである。
TongueAtlas-4Kは,22の診断ラベルを付した4,000枚の画像からなるベンチマークである。
論文 参考訳(メタデータ) (2025-11-13T06:30:41Z) - Ensemble Deep Learning and LLM-Assisted Reporting for Automated Skin Lesion Diagnosis [2.9307254086347427]
皮膚科診断のためのAI統合を再定義する統合フレームワークを導入する。
第一に、アーキテクチャ的に多様である畳み込みニューラルネットワークの目的的にヘテロジニアスなアンサンブルは、相補的な診断の視点を提供する。
第2に、診断ワークフローに直接大きな言語モデル機能を組み込んで、分類出力を臨床的に意味のある評価に変換する。
論文 参考訳(メタデータ) (2025-10-05T08:07:33Z) - Interpretable Clinical Classification with Kolgomorov-Arnold Networks [70.72819760172744]
Kolmogorov-Arnold Networks (KAN) は、透明で象徴的な表現を通じて固有の解釈能力を提供する。
Kansは、組み込みの患者レベルの洞察、直感的な可視化、最寄りの患者の検索をサポートする。
これらの結果は、カンを、臨床医が理解し、監査し、行動できる信頼できるAIへの有望なステップと位置づけている。
論文 参考訳(メタデータ) (2025-09-20T17:21:58Z) - Self-Supervised Cross-Encoder for Neurodegenerative Disease Diagnosis [6.226851122403944]
縦型MRIスキャンにおける時間的連続性を利用した自己監督型クロスエンコーダフレームワークを提案する。
このフレームワークは、学習した表現を2つのコンポーネントに分解する: 静的表現は、対照的な学習によって制約され、安定した解剖学的特徴を捉え、動的表現は、時間的変化を反映する入力漸進正規化によってガイドされる。
アルツハイマー病神経画像イニシアチブデータセットの実験結果から,本手法は分類精度が向上し,解釈性が向上することが示された。
論文 参考訳(メタデータ) (2025-09-09T11:52:24Z) - Heart2Mind: Human-Centered Contestable Psychiatric Disorder Diagnosis System using Wearable ECG Monitors [2.03647070634706]
Heart2Mind(ハート2ミンド)は、ウェアラブル心電図(ECG)モニターを用いたヒト中心の精神疾患診断システムである。
本システムは,(1)極性H9/H10デバイスからのリアルタイムデータ取得のための心臓モニタリングインタフェース(CMI),(2)統合時間周波数領域分析によるRRI時系列処理を行うマルチスケールテンポラル周波数変換器(MSTFT),(3)自己反転説明(SAE)と競合可能な大言語モデル(LLM)を組み合わせた検査可能な診断インタフェース(CDI)からなる。
論文 参考訳(メタデータ) (2025-05-16T18:21:08Z) - AGIR: Assessing 3D Gait Impairment with Reasoning based on LLMs [0.0]
歩行障害は、神経変性疾患の早期診断、疾患モニタリング、治療評価において重要な役割を果たす。
近年のディープラーニングベースのアプローチは、分類精度を一貫して改善しているが、解釈可能性に欠けることが多い。
本稿では、事前訓練されたVQ-VAEモーショントークンライザと、一対のモーショントークン上で微調整されたLarge Language Model(LLM)からなる新しいパイプラインであるAGIRを紹介する。
論文 参考訳(メタデータ) (2025-03-23T17:12:16Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。