論文の概要: Stakeholder Perspectives on Humanistic Implementation of Computer Perception in Healthcare: A Qualitative Study
- arxiv url: http://arxiv.org/abs/2508.02550v1
- Date: Mon, 04 Aug 2025 16:01:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.736825
- Title: Stakeholder Perspectives on Humanistic Implementation of Computer Perception in Healthcare: A Qualitative Study
- Title(参考訳): 医療におけるコンピュータ・パーセプションのヒューマニズム的実装に関するステークホルダーの視点--質的研究
- Authors: Kristin M. Kostick-Quenet, Meghan E. Hurley, Syed Ayaz, John Herrington, Casey Zampella, Julia Parish-Morris, Birkan Tunç, Gabriel Lázaro-Muñoz, J. S. Blumenthal-Barby, Eric A. Storch,
- Abstract要約: デジタル表現型、感情コンピューティングおよび関連する受動的センシングアプローチは、医療をパーソナライズする前例のない機会を提供する。
これらのツールは、プライバシ、偏見、共感的、関係中心のプラクティスの侵食に関する懸念を喚起する。
本研究はCP技術の患者医療への統合に関する主要な利害関係者の視点に関する最初の根拠に基づく考察である。
- 参考スコア(独自算出の注目度): 1.2144656790395498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computer perception (CP) technologies (digital phenotyping, affective computing and related passive sensing approaches) offer unprecedented opportunities to personalize healthcare, but provoke concerns about privacy, bias and the erosion of empathic, relationship-centered practice. A comprehensive understanding of perceived risks, benefits, and implementation challenges from those who design, deploy and experience these tools in real-world settings remains elusive. This study provides the first evidence-based account of key stakeholder perspectives on the relational, technical, and governance challenges raised by the integration of CP technologies into patient care. We conducted in-depth, semi-structured interviews with 102 stakeholders: adolescent patients and their caregivers, frontline clinicians, technology developers, and ethics, legal, policy or philosophy scholars. Transcripts underwent thematic analysis by a multidisciplinary team; reliability was enhanced through double coding and consensus adjudication. Stakeholders articulated seven interlocking concern domains: (1) trustworthiness and data integrity; (2) patient-specific relevance; (3) utility and workflow integration; (4) regulation and governance; (5) privacy and data protection; (6) direct and indirect patient harms; and (7) philosophical critiques of reductionism. To operationalize humanistic safeguards, we propose "personalized roadmaps": co-designed plans that predetermine which metrics will be monitored, how and when feedback is shared, thresholds for clinical action, and procedures for reconciling discrepancies between algorithmic inferences and lived experience. By translating these insights into personalized roadmaps, we offer a practical framework for developers, clinicians and policymakers seeking to harness continuous behavioral data while preserving the humanistic core of care.
- Abstract(参考訳): コンピュータ認識(CP)技術(デジタル表現型、感情的コンピューティングおよび関連する受動的センシングアプローチ)は、医療をパーソナライズするための前例のない機会を提供するが、プライバシ、偏見、共感的、関係中心のプラクティスの侵食に対する懸念を引き起こす。
現実の環境でこれらのツールを設計し、デプロイし、経験する人々による、認識されたリスク、メリット、そして実装上の課題に対する包括的な理解は、依然として明白です。
本研究は、CP技術の患者医療への統合によって引き起こされた関係性、技術、ガバナンスの課題について、主要なステークホルダーの視点に関する最初のエビデンスベースの説明を提供する。
青少年患者とその介護者,最前線臨床医,技術開発者,倫理学,法学,政策学,哲学学者102名を対象に,詳細な半構造化インタビューを行った。
トランスクリプトは多分野のチームによってテーマ分析を受け、信頼性は二重符号化とコンセンサス適応によって強化された。
1)信頼性とデータの整合性,(2)患者固有の関連性,(3)ユーティリティとワークフローの統合,(4)規制とガバナンス,(5)プライバシとデータ保護,(6)直接的かつ間接的な患者被害,(7)還元主義の哲学的批判。
人文主義的保護を運用するために、どの指標を監視するか、どのようにいつフィードバックが共有されるか、臨床行動のしきい値、アルゴリズム的推論と生活経験の相違を解消する手順を事前に決める、共同設計の計画「個人化されたロードマップ」を提案する。
パーソナライズされたロードマップにこれらの洞察を翻訳することで、開発者、臨床医、政策立案者に、継続的な行動データを活用するための実践的なフレームワークを提供しながら、ケアの人道的なコアを守ります。
関連論文リスト
- Stakeholder Perspectives on Digital Twin Implementation Challenges in Healthcare: Insights from a Provider Digital Twin Case Study [0.0]
本研究は,4つの異なる利害関係者の視点を捉え,医療におけるDT導入の課題について考察する。
CFIR 2.0(Consolidated Framework for Implementation Research)を改訂した半構造化インタビューを行った。
次に、各利害関係者の嗜好と関心をマッピングし、収束と多様化の微妙な風景を明らかにした。
論文 参考訳(メタデータ) (2025-07-31T07:57:48Z) - Ethics by Design: A Lifecycle Framework for Trustworthy AI in Medical Imaging From Transparent Data Governance to Clinically Validated Deployment [0.0]
本研究では,医療画像におけるAIの倫理的意義について考察する。
データ収集、データ処理、モデルトレーニング、モデル評価、デプロイメントの5つの重要なステージに焦点を当てている。
分析的手法を用いて,AI開発の各段階における倫理的課題について検討した。
論文 参考訳(メタデータ) (2025-07-06T05:28:17Z) - Designing AI Tools for Clinical Care Teams to Support Serious Illness Conversations with Older Adults in the Emergency Department [53.52248484568777]
この研究は、EDベースの重篤な病的会話の実証的な理解に貢献し、ハイテイクな臨床環境におけるAIの設計上の考察を提供する。
専門医2名と専門医9名を対象にインタビューを行った。
我々は4段階の重篤な会話ワークフロー(識別、準備、伝導、文書化)を特徴とし、各段階における重要なニーズと課題を特定した。
既存の臨床実践に適合するSICをサポートするAIツールの設計ガイドラインを提示する。
論文 参考訳(メタデータ) (2025-05-30T21:15:57Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Addressing Intersectionality, Explainability, and Ethics in AI-Driven Diagnostics: A Rebuttal and Call for Transdiciplinary Action [0.30693357740321775]
人工知能の医療診断への統合の増大は、その倫理的および実践的な意味を批判的に検証する必要がある。
本稿は、AIによる診断が多様な人口に公平かつ倫理的に役立っていることを保証するために、正確さと公正性、プライバシ、傾きのバランスをとるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-15T00:00:01Z) - Ethical Challenges and Evolving Strategies in the Integration of Artificial Intelligence into Clinical Practice [1.0301404234578682]
我々は、正義と公正、透明性、患者の同意と機密性、説明責任、患者中心で公平なケアの5つの重要な倫理的関心事に焦点を当てる。
この論文は、患者の信頼を維持する上でのバイアス、透明性の欠如、そして課題が、医療におけるAIアプリケーションの有効性と公正性を損なう可能性があるかを考察する。
論文 参考訳(メタデータ) (2024-11-18T00:52:22Z) - Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Safe and Interpretable Estimation of Optimal Treatment Regimes [54.257304443780434]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - A Survey on Computer Vision based Human Analysis in the COVID-19 Era [58.79053747159797]
新型コロナウイルスの出現は、社会全体だけでなく、個人の生活にも大きく影響している。
マスクやソーシャルディスタンシングの義務、公共空間での定期消毒、スクリーニングアプリケーションの使用など、さまざまな予防策が世界中で導入されている。
これらの発展は、(i)視覚データの自動解析による予防対策の支援、(ii)生体認証などの既存の視覚ベースのサービスの正常な操作を容易にする、新しいコンピュータビジョン技術の必要性を喚起した。
論文 参考訳(メタデータ) (2022-11-07T17:20:39Z) - IAC: A Framework for Enabling Patient Agency in the Use of AI-Enabled
Healthcare [1.0878040851638]
IAC(Informing, Assessment, and Consent)は、医療環境におけるAI対応デジタル技術の導入に対する患者の反応を評価するためのフレームワークである。
このフレームワークは、医療実践者が医療におけるAIの使用について患者に通知する方法を導く3つの基本原則で構成されている。
本稿では, この枠組みを構成する原則を, 実践者と患者の関係を改善するガイドラインに翻訳し, 同時に, 医療におけるAIの利用に関する患者機関に翻訳することを提案する。
論文 参考訳(メタデータ) (2021-10-29T16:13:15Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。