論文の概要: The doctor will polygraph you now: ethical concerns with AI for fact-checking patients
- arxiv url: http://arxiv.org/abs/2408.07896v1
- Date: Thu, 15 Aug 2024 02:55:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 15:09:23.247001
- Title: The doctor will polygraph you now: ethical concerns with AI for fact-checking patients
- Title(参考訳): 医師が患者をポリグラフ化する: ファクトチェックの患者に対するAIの倫理的懸念
- Authors: James Anibal, Jasmine Gunkel, Hannah Huth, Hang Nguyen, Shaheen Awan, Yael Bensoussan, Bradford Wood,
- Abstract要約: 患者報告データから合理的に理解可能な社会的行動を予測するために,臨床人工知能(AI)手法が提案されている。
これにより、健康データの使用方法に対する敬意、プライバシ、患者の意識/コントロールに関する倫理的な懸念が高まる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical artificial intelligence (AI) methods have been proposed for predicting social behaviors which could be reasonably understood from patient-reported data. This raises ethical concerns about respect, privacy, and patient awareness/control over how their health data is used. Ethical concerns surrounding clinical AI systems for social behavior verification were divided into three main categories: (1) the use of patient data retrospectively without informed consent for the specific task of verification, (2) the potential for inaccuracies or biases within such systems, and (3) the impact on trust in patient-provider relationships with the introduction of automated AI systems for fact-checking. Additionally, this report showed the simulated misuse of a verification system and identified a potential LLM bias against patient-reported information in favor of multimodal data, published literature, and the outputs of other AI methods (i.e., AI self-trust). Finally, recommendations were presented for mitigating the risk that AI verification systems will cause harm to patients or undermine the purpose of the healthcare system.
- Abstract(参考訳): 患者報告データから合理的に理解可能な社会的行動を予測するために,臨床人工知能(AI)手法が提案されている。
これにより、健康データの使用方法に対する敬意、プライバシ、患者の意識/コントロールに関する倫理的な懸念が高まる。
社会的行動検証のための臨床AIシステムを取り巻く倫理的懸念は,(1)検証の特定のタスクに対するインフォームドコンセントのない患者データの使用,(2)システム内の不正確性や偏見の可能性,(3)ファクトチェックのための自動AIシステムの導入による患者と研究者の関係の信頼への影響,の3つのカテゴリに分けられた。
さらに、本報告では、検証システムのシミュレートされた誤用を示し、患者が報告した情報に対する潜在的LLMバイアスを特定し、マルチモーダルデータ、出版文献、その他のAI手法(すなわち、AI自己信頼)のアウトプットを確認した。
最後に、AI検証システムが患者を傷つけたり、医療システムの目的を損なうリスクを軽減するための勧告が提示された。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Why patient data cannot be easily forgotten? [18.089204090335667]
患者データのモデル性能への影響について検討し, 患者データに対する2つの仮説を定式化する。
そこで我々は,患者を意識した「忘れる」アプローチを提案する。
論文 参考訳(メタデータ) (2022-06-29T11:36:49Z) - Leveraging Clinical Context for User-Centered Explainability: A Diabetes
Use Case [4.520155732176645]
慢性腎臓病(CKD)のリスクを評価する2型糖尿病(T2DM)症例における概念実証(POC)を実装した。
POCには、CKDのリスク予測モデル、予測のポストホック説明器、その他の自然言語モジュールが含まれています。
我々のPOCアプローチは、複数の知識ソースと臨床シナリオをカバーし、データと予測をPCPに説明するために知識をブレンドし、医療専門家から熱心に反応した。
論文 参考訳(メタデータ) (2021-07-06T02:44:40Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。