論文の概要: Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship
- arxiv url: http://arxiv.org/abs/2602.16553v1
- Date: Wed, 18 Feb 2026 15:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.637374
- Title: Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship
- Title(参考訳): エージェントAI, 医療的モラル, 患者・衛生的関係の変容
- Authors: Robert Ranisch, Sabine Salloch,
- Abstract要約: エージェントAIシステムは、自律的でゴール指向のアクションと複雑なタスク調整が可能である。
本稿では,エージェントAIが患者と生理学の関係を再構築し,医療道徳の中核的な概念を再構成する方法について考察する。
最終的にこの論文は、エージェントAIの設計と利用に倫理的展望を統合することを求めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of agentic AI marks a new phase in the digital transformation of healthcare. Distinct from conventional generative AI, agentic AI systems are capable of autonomous, goal-directed actions and complex task coordination. They promise to support or even collaborate with clinicians and patients in increasingly independent ways. While agentic AI raises familiar moral concerns regarding safety, accountability, and bias, this article focuses on a less explored dimension: its capacity to transform the moral fabric of healthcare itself. Drawing on the framework of techno-moral change and the three domains of decision, relation and perception, we investigate how agentic AI might reshape the patient-physician relationship and reconfigure core concepts of medical morality. We argue that these shifts, while not fully predictable, demand ethical attention before widespread deployment. Ultimately, the paper calls for integrating ethical foresight into the design and use of agentic AI.
- Abstract(参考訳): エージェントAIの出現は、医療のデジタルトランスフォーメーションにおける新たなフェーズである。
エージェントAIシステムは、従来の生成AIとは違い、自律的でゴール指向のアクションと複雑なタスク調整が可能である。
彼らは、ますます独立した方法で、臨床医や患者を支援する、あるいは協力することを約束する。
エージェントAIは、安全、説明責任、バイアスに関する周知な道徳的懸念を提起する一方で、この記事では、医療そのものの道徳的構造を変革する能力という、より詳細な側面に焦点を当てます。
技術・道徳的変化の枠組みと意思決定、関係、知覚の3つの領域に基づいて、エージェントAIが患者と物理学の関係をどう変え、医療道徳の中核的な概念を再構成するかを考察する。
これらの変化は、完全には予測できないが、広く展開する前に倫理的な注意が必要であると我々は主張する。
最終的にこの論文は、エージェントAIの設計と利用に倫理的展望を統合することを求めている。
関連論文リスト
- The Ultimate Test of Superintelligent AI Agents: Can an AI Balance Care and Control in Asymmetric Relationships? [11.983461426678522]
シェパードテストは、超知能人工エージェントの道徳的および関係的な次元を評価するための新しい概念テストである。
私たちは、AIが知的エージェントを操作、育む、そして機器的に使用しない能力を示すときに、重要な、潜在的に危険な、知能のしきい値を越えることを主張する。
これには、自己利益と従属エージェントの幸福の間の道徳的なトレードオフを評価する能力が含まれる。
論文 参考訳(メタデータ) (2025-06-02T15:53:56Z) - Artificial Intelligence (AI) and the Relationship between Agency, Autonomy, and Moral Patiency [0.0]
私たちは、現在のAIシステムは高度に洗練されていますが、真のエージェンシーと自律性は欠如しています。
我々は、意識のない限られた形態の人工道徳機関を達成できる未来のシステムの可能性を排除することはできない。
論文 参考訳(メタデータ) (2025-04-11T03:48:40Z) - Agentic AI Needs a Systems Theory [46.36636351388794]
AI開発は現在、個々のモデル機能に過度に重点を置いている、と私たちは主張する。
エージェント認知の強化,創発的因果推論能力,メタ認知認知のメカニズムについて概説する。
システムレベルの視点は、より理解し、意図的に形作り、エージェントAIシステムに不可欠である、と私たちは強調する。
論文 参考訳(メタデータ) (2025-02-28T22:51:32Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Evolving AI Collectives to Enhance Human Diversity and Enable Self-Regulation [40.763340315488406]
大きな言語モデルの振る舞いは、相互作用する言語の言語によって形作られます。
この能力とその増加傾向は、意図的または意図的に相互に「プログラム」する、というオンラインポータビリティを増大させます。
我々は、AIのクロスモーダル化の機会について議論し、自由なAI集団の作成と維持に関連する倫理的問題と設計上の課題に対処する。
論文 参考訳(メタデータ) (2024-02-19T22:59:43Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。