論文の概要: Totalitarian Technics: The Hidden Cost of AI Scribes in Healthcare
- arxiv url: http://arxiv.org/abs/2512.11814v1
- Date: Wed, 26 Nov 2025 18:43:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-21 14:22:08.686782
- Title: Totalitarian Technics: The Hidden Cost of AI Scribes in Healthcare
- Title(参考訳): 人道的技術者:医療におけるAIの汚職の隠れたコスト
- Authors: Hugh Brosnahan,
- Abstract要約: AIスクリプティング(AI scribes)は、患者とクリニックの相互作用を記録し、要約するシステムである。
本論文は,医学的注意をいかに形作るかという点において,その意義を論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) scribes, systems that record and summarise patient-clinician interactions, are promoted as solutions to administrative overload. This paper argues that their significance lies not in efficiency gains but in how they reshape medical attention itself. Offering a conceptual analysis, it situates AI scribes within a broader philosophical lineage concerned with the externalisation of human thought and skill. Drawing on Iain McGilchrist's hemisphere theory and Lewis Mumford's philosophy of technics, the paper examines how technology embodies and amplifies a particular mode of attention. AI scribes, it contends, exemplify the dominance of a left-hemispheric, calculative mindset that privileges the measurable and procedural over the intuitive and relational. As this mode of attention becomes further embedded in medical practice, it risks narrowing the field of care, eroding clinical expertise, and reducing physicians to operators within an increasingly mechanised system.
- Abstract(参考訳): 人工知能(AI)は、患者とクリニックの相互作用を記録・要約するシステムであり、管理過剰の解決策として推進される。
本論文は, 効率向上ではなく, 医療的注意をいかに形作るかという点で, それらの意義を論じる。
概念分析を提供することで、人間の思考とスキルの外部化に関するより広範な哲学的な系統の中でAIが記述する。
Iain McGilchristの半球理論とLewis Mumfordの技術者哲学に基づいて、この論文はテクノロジーがどのように特定の注意様式を具現化し、増幅するかを考察している。
AIは、直感的でリレーショナル性よりも測定可能で手続き的に特権を付与する、左半球的で計算的な考え方の優位性を実証している、と氏は主張する。
このような注意の様式が医療実践にさらに浸透するにつれて、医療分野の縮小、臨床専門知識の侵食、ますます機械化されるシステムの中で医師をオペレーターに還元するリスクが生じる。
関連論文リスト
- Explainable AI as a Double-Edged Sword in Dermatology: The Impact on Clinicians versus The Public [46.86429592892395]
説明可能なAI(XAI)は、AI意思決定の洞察を提供することによって、この問題に対処する。
フェアネスに基づく診断AIモデルと異なるXAI説明を組み合わせた2つの大規模実験の結果を報告する。
論文 参考訳(メタデータ) (2025-12-14T00:06:06Z) - Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care [2.4339626079536925]
近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
ベンチマークスコアはめちゃくちゃですが、LCMアシスタントはまだベッドサイドで測定可能な改善を提供していません。
このスクーピングレビューは、臨床現場で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
論文 参考訳(メタデータ) (2025-07-02T01:43:06Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Explainable Artificial Intelligence for Medical Applications: A Review [42.33274794442013]
本稿では、説明可能な人工知能(XAI)に関する最近の研究をレビューする。
視覚、オーディオ、マルチモーダルの観点からの医療実践に焦点を当てている。
我々は、将来の研究者や医療専門家に支援とガイダンスを提供することを目的として、これらのプラクティスを分類し、合成することに努めます。
論文 参考訳(メタデータ) (2024-11-15T11:31:06Z) - The Dual Impact of Artificial Intelligence in Healthcare: Balancing Advancements with Ethical and Operational Challenges [1.3302498881305604]
本稿では、AIが診断、精密医療、薬物発見などの領域をどのように変革しているかを詳しく検討する。
患者のプライバシや安全性、AI決定の公正性といった問題は、医療におけるAIがポジティブな力なのか、潜在的なリスクなのか、あるいは両方なのかを理解するために検討されている。
論文 参考訳(メタデータ) (2024-11-08T23:36:16Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Towards the Use of Saliency Maps for Explaining Low-Quality Electrocardiograms to End Users [51.644376281196394]
診断に医用画像を使用する場合,画像が高品質であることが重要である。
遠隔医療において一般的な問題は、患者が診療所を退院した後にのみ、品質問題が警告されることである。
本稿では,低品質な医用画像をリアルタイムにフラグ付け,説明するためのAIシステムの開発について報告する。
論文 参考訳(メタデータ) (2022-07-06T14:53:26Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。