論文の概要: The Doctor Will (Still) See You Now: On the Structural Limits of Agentic AI in Healthcare
- arxiv url: http://arxiv.org/abs/2602.18460v1
- Date: Fri, 06 Feb 2026 02:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.584546
- Title: The Doctor Will (Still) See You Now: On the Structural Limits of Agentic AI in Healthcare
- Title(参考訳): 医療におけるエージェントAIの構造的限界について
- Authors: Gabriela Aránguiz Dias, Kiana Jafari, Allie Griffith, Carolina Aránguiz Dias, Grace Ra Kim, Lana Saadeddin, Mykel J. Kochenderfer,
- Abstract要約: 我々は、開発者、実装者、エンドユーザーを含む20人の利害関係者へのインタビューに基づく質的研究を提示する。
エージェントの定義に関する概念的断片化」という3つの相互強化的緊張について分析した。
我々はエージェントAIが、技術的願望、商業的インセンティブ、臨床的制約が交わる、争われた意味作りの場として機能すると主張している。
- 参考スコア(独自算出の注目度): 18.202521625229732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across healthcare, agentic artificial intelligence (AI) systems are increasingly promoted as capable of autonomous action, yet in practice they currently operate under near-total human oversight due to safety, regulatory, and liability constraints that make autonomous clinical reasoning infeasible in high-stakes environments. While market enthusiasm suggests a revolution in healthcare agents, the conceptual assumptions and accountability structures shaping these systems remain underexamined. We present a qualitative study based on interviews with 20 stakeholders, including developers, implementers, and end users. Our analysis identifies three mutually reinforcing tensions: conceptual fragmentation regarding the definition of `agentic'; an autonomy contradiction where commercial promises exceed operational reality; and an evaluation blind spot that prioritizes technical benchmarks over sociotechnical safety. We argue that agentic {AI} functions as a site of contested meaning-making where technical aspirations, commercial incentives, and clinical constraints intersect, carrying material consequences for patient safety and the distribution of blame.
- Abstract(参考訳): 医療全体を通じて、エージェント人工知能(AI)システムは、自律的な行動の能力としてますます推進されているが、実際には、安全、規制、責任の制約により、人間のほぼ全力で運用されている。
市場の熱意は医療エージェントの革命を示唆しているが、概念的仮定と説明責任構造は依然として過小評価されている。
我々は、開発者、実装者、エンドユーザーを含む20人の利害関係者へのインタビューに基づく質的研究を提示する。
本分析では,「アジェンティック」の定義に関する概念的断片化,商業的約束が運用上の現実を超えた自律的矛盾,社会技術的安全性よりも技術ベンチマークを優先する評価盲点の3つを相互に強化している。
我々は,エージェント {AI} が技術的願望,商業的インセンティブ,臨床的制約の交わる場所として機能し,患者の安全と責任の分散に重要な結果をもたらすと論じている。
関連論文リスト
- Assessing Risks of Large Language Models in Mental Health Support: A Framework for Automated Clinical AI Red Teaming [23.573537738272595]
本稿では,AI心理療法士と認知影響モデルを備えた模擬患者エージェントを併用する評価フレームワークを提案する。
我々は、この枠組みを6つのAIエージェントを評価する、高インパクトなテストケースであるアルコール使用障害に適用する。
大規模なシミュレーションでは、メンタルヘルス支援にAIを使用する場合、重大な安全性のギャップが明らかになっている。
論文 参考訳(メタデータ) (2026-02-23T15:17:18Z) - Augmenting Clinical Decision-Making with an Interactive and Interpretable AI Copilot: A Real-World User Study with Clinicians in Nephrology and Obstetrics [36.981753143345664]
共同臨床意思決定のための対話型・解釈可能なAIコラボロであるAICareについて紹介する。
縦断的な電子健康記録を解析することにより、AICareは動的リスク予測を精査可能な可視化に基礎を置いている。
論文 参考訳(メタデータ) (2026-01-31T13:41:32Z) - Responsible Evaluation of AI for Mental Health [72.85175110624736]
メンタルヘルスケアにおけるAIツールの評価に対する現在のアプローチは、断片化されており、臨床実践、社会的コンテキスト、ファーストハンドのユーザエクスペリエンスと不整合である。
本稿では,臨床の健全性,社会的文脈,公平性を統合した学際的枠組みを導入することにより,責任ある評価を再考する。
論文 参考訳(メタデータ) (2026-01-20T12:55:10Z) - From Values to Frameworks: A Qualitative Study of Ethical Reasoning in Agentic AI Practitioners [0.0]
エージェント人工知能システムは、人間の監督を最小限に抑えて複雑な目標を追求できる自律技術である。
これらのシステムは生産性の大きな向上を約束する一方で、新たな倫理的課題も提起する。
本稿では,エージェントAI展開における構造化ジレンマを中心とした質的なインタビューを通じて,AI実践者の倫理的理由について考察する。
論文 参考訳(メタデータ) (2025-12-24T00:58:41Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Advancing Responsible Innovation in Agentic AI: A study of Ethical Frameworks for Household Automation [1.6766200616088744]
この記事ではエージェントAIとそのアプリケーションを分析し、リアクティブから積極的な自律性、プライバシ、公正性、ユーザコントロールへの移行に注目します。
監視・偏見・プライバシーリスクのリスクが高い高齢者、子ども、神経分岐などの脆弱性のあるユーザーグループについて検討した。
設計命令は、調整された説明可能性、きめ細かい同意機構、堅牢なオーバーライド制御など、強調される。
論文 参考訳(メタデータ) (2025-07-21T06:10:02Z) - A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Visibility into AI Agents [9.067567737098594]
AIエージェントに対する商業的、科学的、政府的、個人的活動の委譲の増加は、既存の社会的リスクを悪化させる可能性がある。
エージェント識別子,リアルタイム監視,アクティビティログという,AIエージェントの視認性を高めるための3つの尺度を評価した。
論文 参考訳(メタデータ) (2024-01-23T23:18:33Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。