論文の概要: PoseGaze-AHP: A Knowledge-Based 3D Dataset for AI-Driven Ocular and Postural Diagnosis
- arxiv url: http://arxiv.org/abs/2510.03873v1
- Date: Sat, 04 Oct 2025 16:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.313192
- Title: PoseGaze-AHP: A Knowledge-Based 3D Dataset for AI-Driven Ocular and Postural Diagnosis
- Title(参考訳): PoseGaze-AHP:AI駆動眼・姿勢診断のための知識ベース3Dデータセット
- Authors: Saja Al-Dabet, Sherzod Turaev, Nazar Zaki, Arif O. Khan, Luai Eldweik,
- Abstract要約: PoseGaze-AHPは、視覚誘発型AHP評価のための頭部ポーズと視線運動情報を同期的にキャプチャする新しい3Dデータセットである。
このデータセットは、2つの頭部テクスチャから生成される7,920の画像を含み、眼の状態の広い範囲をカバーしている。
- 参考スコア(独自算出の注目度): 1.7061463565692456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diagnosing ocular-induced abnormal head posture (AHP) requires a comprehensive analysis of both head pose and ocular movements. However, existing datasets focus on these aspects separately, limiting the development of integrated diagnostic approaches and restricting AI-driven advancements in AHP analysis. To address this gap, we introduce PoseGaze-AHP, a novel 3D dataset that synchronously captures head pose and gaze movement information for ocular-induced AHP assessment. Structured clinical data were extracted from medical literature using large language models (LLMs) through an iterative process with the Claude 3.5 Sonnet model, combining stepwise, hierarchical, and complex prompting strategies. The extracted records were systematically imputed and transformed into 3D representations using the Neural Head Avatar (NHA) framework. The dataset includes 7,920 images generated from two head textures, covering a broad spectrum of ocular conditions. The extraction method achieved an overall accuracy of 91.92%, demonstrating its reliability for clinical dataset construction. PoseGaze-AHP is the first publicly available resource tailored for AI-driven ocular-induced AHP diagnosis, supporting the development of accurate and privacy-compliant diagnostic tools.
- Abstract(参考訳): 視線誘発異常頭位(AHP)の診断には、頭部ポーズと眼球運動の両方を包括的に分析する必要がある。
しかし、既存のデータセットはこれらの側面を個別に重視し、統合診断アプローチの開発を制限し、AIによるAHP分析の進歩を制限する。
このギャップに対処するため,PoseGaze-AHPという新しい3Dデータセットを紹介した。
構造化された臨床データは,Claude 3.5 Sonnetモデルを用いて,段階的,階層的,複雑なプロンプト戦略を組み合わせた反復的プロセスを通じて,大言語モデル(LLMs)を用いて医学文献から抽出された。
抽出した記録は,Neural Head Avatar(NHA)フレームワークを用いて,体系的にインプットされ,3D表現に変換された。
このデータセットは、2つの頭部テクスチャから生成される7,920の画像を含み、眼の状態の広い範囲をカバーしている。
この抽出法は91.92%の精度を達成し、臨床データセット構築の信頼性を実証した。
PoseGaze-AHPは、AIによって誘発されるAHP診断に適した、初めて公開されているリソースであり、正確でプライバシーに準拠する診断ツールの開発をサポートする。
関連論文リスト
- RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - EyecareGPT: Boosting Comprehensive Ophthalmology Understanding with Tailored Dataset, Benchmark and Model [51.66031028717933]
Med-LVLM(Med-LVLM)は、医療において重要な可能性を示す。
現在、知的眼科診断は、(i)データ、(ii)ベンチマーク、(iii)モデルという3つの大きな課題に直面している。
我々は、前述の3つの課題に対処するEyecare Kitを提案する。
論文 参考訳(メタデータ) (2025-04-18T12:09:15Z) - Self-Explaining Hypergraph Neural Networks for Diagnosis Prediction [45.89562183034469]
既存のディープラーニング診断予測モデルと本質的な解釈性は、過去の診断や病院訪問の度に注意重みを割り当てることが多い。
我々は、パーソナライズされた簡潔で忠実な説明を提供するように設計された、自己説明型ハイパーグラフニューラルネットワークモデルSHyを紹介する。
SHyは高次疾患の相互作用を捉え、パーソナライズされた説明として異なる時間的表現型を抽出する。
論文 参考訳(メタデータ) (2025-02-15T06:33:02Z) - Abnormality-Driven Representation Learning for Radiology Imaging [0.8321462983924758]
病変強調型コントラスト学習(LeCL)は,CTスキャンの異なる部位にわたる2次元軸方向スライスにおける異常により引き起こされる視覚的表現を得るための新しい手法である。
本研究は, 腫瘍病変位置, 肺疾患検出, 患者ステージングの3つの臨床的課題に対するアプローチを, 最先端の4つの基礎モデルと比較した。
論文 参考訳(メタデータ) (2024-11-25T13:53:26Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - 2D and 3D Deep Learning Models for MRI-based Parkinson's Disease Classification: A Comparative Analysis of Convolutional Kolmogorov-Arnold Networks, Convolutional Neural Networks, and Graph Convolutional Networks [0.0]
本研究はパーキンソン病の診断にConvolutional Kolmogorov-Arnold Networks(ConvKANs)を適用した。
ConvKANは、構造MRIを用いたPD分類のために、学習可能なアクティベーション機能を畳み込み層に統合する。
医用画像用ConvKANの最初の3D実装について紹介し、その性能を畳み込みニューラルネットワーク(CNN)とグラフ畳み込みニューラルネットワーク(GCN)と比較した。
これらの知見は, PD検出に対するConvKANsの可能性を強調し, 脳の微妙な変化を捉える上での3D解析の重要性を強調し, データセット間の一般化の課題を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-07-24T16:04:18Z) - Spatial-aware Transformer-GRU Framework for Enhanced Glaucoma Diagnosis from 3D OCT Imaging [3.093890460224435]
本稿では3次元光コヒーレンス・トモグラフィー(OCT)画像の診断値を利用した新しいディープラーニングフレームワークを提案する。
我々は、リッチスライスな特徴抽出のための網膜データに事前学習された視覚変換器と、スライス間空間依存性をキャプチャするための双方向Gated Recurrent Unitを統合する。
論文 参考訳(メタデータ) (2024-03-08T22:25:15Z) - AI-based association analysis for medical imaging using latent-space geometric confounder correction [6.1230206418222615]
本研究は, 人工知能に基づく医用画像解析におけるコンバウンディング効果と解釈可能性の課題について論じる。
本稿では,画像データに代えて,共同設立者関係の情報を潜在表現として保持する戦略を提案する。
その結果、共同設立者の影響力を減らし、誤りや誤解を招く協会を予防し、臨床・疫学研究者による詳細な調査にユニークな視覚的解釈を提供する方法の有効性が確認された。
論文 参考訳(メタデータ) (2023-10-03T16:09:07Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。