論文の概要: Six Interventions for the Responsible and Ethical Implementation of Medical AI Agents
- arxiv url: http://arxiv.org/abs/2603.13743v1
- Date: Sat, 14 Mar 2026 04:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.377876
- Title: Six Interventions for the Responsible and Ethical Implementation of Medical AI Agents
- Title(参考訳): 医療用AIエージェントの責任と倫理的実装に関する6つの試み
- Authors: Tom Bisson, Henriette Voelker, Sanddhya Jayabalan, A John Iafrate, Jakob N Kather, Jochen K Lennerz,
- Abstract要約: 大規模言語モデル(LLM)ベースのAIエージェントは、すぐに、制限された、あるいはリアルタイムな人間の監視なしに、医療的な意思決定に参加するかもしれない。
このシフトは、臨床責任が自律システムにまで及ぶ場合に、医療倫理の中核となる原則をどのように支持できるかという根本的な疑問を提起する。
本稿では,6つの実践的介入からなる医療AIエージェントのための倫理設計フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model (LLM)-based AI agents are increasingly capable of complex clinical reasoning and may soon participate in medical decision-making with limited or no real-time human oversight. This shift raises fundamental questions about how the core principles of medical ethics (i.e., beneficence, nonmaleficence, autonomy, and justice) can be upheld when the clinical responsibility extends to autonomous systems. Here we propose an ethics-by-design framework for medical AI agents comprising six practical interventions: auditable ethical reasoning modules, explicit human override conditions, structured patient preference profiles, AI-specific ethics oversight tools, global benchmarking repositories for ethical scenarios, and regulatory sandboxes for real-world evaluation. Together, these mechanisms aim to operationalize ethical governance for emerging clinical AI agents. https://github.com/BissonTom/Ethical-Governance-of-Medical-AI-Agents
- Abstract(参考訳): LLM(Large Language Model)ベースのAIエージェントは、より複雑な臨床推論が可能となり、すぐに、制限された、あるいはリアルタイムな人間の監視なしに、医療的な意思決定に参加する可能性がある。
このシフトは、医療倫理の中核となる原則(例えば、受益性、非効率性、自律性、正義)が、臨床責任が自律システムに拡大するときにどのように支持されるかという根本的な疑問を提起する。
本稿では,6つの実践的介入からなる医療AIエージェントのための倫理設計フレームワークを提案する。監査可能な倫理的推論モジュール,明示的なヒトのオーバライド条件,構造化された患者嗜好プロファイル,AI固有の倫理監視ツール,倫理シナリオのグローバルベンチマークリポジトリ,実世界の評価のための規制サンドボックス。
これらのメカニズムは、新たな臨床AIエージェントのための倫理的ガバナンスを運用することを目的としている。
https://github.com/BissonTom/Ethical-Governance-of-Medical-AI-Agents
関連論文リスト
- Agentic AI, Medical Morality, and the Transformation of the Patient-Physician Relationship [0.0]
エージェントAIシステムは、自律的でゴール指向のアクションと複雑なタスク調整が可能である。
本稿では,エージェントAIが患者と生理学の関係を再構築し,医療道徳の中核的な概念を再構成する方法について考察する。
最終的にこの論文は、エージェントAIの設計と利用に倫理的展望を統合することを求めている。
論文 参考訳(メタデータ) (2026-02-18T15:54:17Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AI [0.2538209532048867]
このデータセットは、倫理的に課金された状況をAIシステムがどうナビゲートするかを評価するために設計された125のシナリオのパイロットデータセットである。
EthicsMHは、AI倫理とメンタルヘルスの意思決定を橋渡しするタスクフレームワークを確立する。
論文 参考訳(メタデータ) (2025-09-15T07:35:35Z) - Ethical AI in the Healthcare Sector: Investigating Key Drivers of Adoption through the Multi-Dimensional Ethical AI Adoption Model (MEAAM) [1.5458951336481048]
本稿では,多次元倫理AI導入モデル(MEAAM)を紹介する。
Ethical AI Fair AI、Responsible AI、Explainable AI、Sustainable AIの4つの基本次元の13の批判的倫理変数を分類する。
これらの倫理的構成が、オペレーショナルAI導入とシステミックAI導入の2つの結果に与える影響を調査する。
論文 参考訳(メタデータ) (2025-05-04T10:40:05Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Towards A Unified Utilitarian Ethics Framework for Healthcare Artificial
Intelligence [0.08192907805418582]
本研究では、異なる技術レベルでAIの実用性能に影響を与える主要な倫理的原則を特定することを試みる。
正義、プライバシー、偏見、規制の欠如、リスク、解釈可能性は倫理的AIを検討する上で最も重要な原則である。
本稿では,医療領域における倫理的AIを設計するための実用的倫理に基づく理論的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-26T02:10:58Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。