論文の概要: Validation and Transparency in AI systems for pharmacovigilance: a case
study applied to the medical literature monitoring of adverse events
- arxiv url: http://arxiv.org/abs/2201.00692v1
- Date: Tue, 21 Dec 2021 21:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-09 13:27:02.351038
- Title: Validation and Transparency in AI systems for pharmacovigilance: a case
study applied to the medical literature monitoring of adverse events
- Title(参考訳): 薬物移動のためのaiシステムの検証と透明性--医療文献による有害事象の監視を事例として
- Authors: Bruno Ohana, Jack Sullivan and Nicole Baker
- Abstract要約: 本稿では,薬物移動における検証済みAIシステムに対する既存のガイダンスの運用方法に関するケーススタディを提案する。
課題の専門家との密接なコラボレーションで構築された活動の軽減を目的として設計されたAIシステムについて述べる。
- 参考スコア(独自算出の注目度): 0.483420384410068
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in artificial intelligence applied to biomedical text are
opening exciting opportunities for improving pharmacovigilance activities
currently burdened by the ever growing volumes of real world data. To fully
realize these opportunities, existing regulatory guidance and industry best
practices should be taken into consideration in order to increase the overall
trustworthiness of the system and enable broader adoption. In this paper we
present a case study on how to operationalize existing guidance for validated
AI systems in pharmacovigilance focusing on the specific task of medical
literature monitoring (MLM) of adverse events from the scientific literature.
We describe an AI system designed with the goal of reducing effort in MLM
activities built in close collaboration with subject matter experts and
considering guidance for validated systems in pharmacovigilance and AI
transparency. In particular we make use of public disclosures as a useful risk
control measure to mitigate system misuse and earn user trust. In addition we
present experimental results showing the system can significantly remove
screening effort while maintaining high levels of recall (filtering 55% of
irrelevant articles on average, for a target recall of 0.99 on suspected
adverse articles) and provide a robust method for tuning the desired recall to
suit a particular risk profile.
- Abstract(参考訳): バイオメディカルテキストに適用された人工知能の最近の進歩は、現実世界のデータ量の増加に悩まされている製薬活動を改善するエキサイティングな機会を開きつつある。
これらの機会を十分に実現するためには、システム全体の信頼性を高め、より広範な採用を可能にするために、既存の規制ガイダンスと業界ベストプラクティスを考慮すべきである。
本稿では,医学文献からの有害事象の医学文献モニタリング(MLM)の具体的なタスクに着目し,薬剤移動におけるAIシステム検証のための既存のガイダンスの運用方法に関する事例研究を行う。
課題の専門家との密接なコラボレーションと、薬物移動とAI透明性の検証システムのためのガイダンスを考慮したMLM活動の労力削減を目的としたAIシステムについて述べる。
特に,公開開示をシステム誤用を軽減し,ユーザ信頼を得るためのリスク管理手段として活用する。
さらに, 高レベルのリコールを維持しつつ, スクリーニングの労力を大幅に削減できることを示す実験結果を示すとともに, 特定のリスクプロファイルに適合するように, 所望のリコールを調整するためのロバストな方法を提案する。
関連論文リスト
- InferAct: Inferring Safe Actions for LLM-Based Agents Through Preemptive Evaluation and Human Feedback [70.54226917774933]
本稿では,リスク行動が実行される前に,潜在的なエラーを積極的に検出する新しい手法であるInferActを紹介する。
InferActは人間のプロキシとして機能し、安全でないアクションを検出し、ユーザーの介入を警告する。
広く使われている3つのタスクの実験は、InferActの有効性を示している。
論文 参考訳(メタデータ) (2024-07-16T15:24:44Z) - The Need for Guardrails with Large Language Models in Medical Safety-Critical Settings: An Artificial Intelligence Application in the Pharmacovigilance Ecosystem [0.6965384453064829]
大規模言語モデル(LLM)は、特定の種類の知識処理を効果的にスケールする能力を備えた有用なツールである。
しかし、高リスクで安全に重要な領域への展開は、特に幻覚の問題など、ユニークな課題を生んでいる。
これは特に、不正確さが患者を傷つける可能性がある薬物の安全性のような設定に関係している。
我々は、特定の種類の幻覚と薬物安全性のエラーを軽減するために特別に設計されたガードレールのコンセプトスイートを開発し、実証した。
論文 参考訳(メタデータ) (2024-07-01T19:52:41Z) - Advancing Healthcare Automation: Multi-Agent System for Medical Necessity Justification [0.0]
本稿では,LLMエージェントを利用したマルチエージェントシステム(MAS)の優先オーソライゼーションタスクの自動化について検討する。
GPT-4のチェックリストは,証拠による項目レベルの判断の精度が86.2%,総合的なチェックリスト判定の精度が95.6%であることを示す。
論文 参考訳(メタデータ) (2024-04-27T18:40:05Z) - Explainable Machine Learning-Based Security and Privacy Protection Framework for Internet of Medical Things Systems [1.8434042562191815]
インターネット・オブ・メディカル・モノ(IoMT)は、従来の医療境界を超越し、反応性治療から予防への転換を可能にする。
その利点は、処理されたデータの感度と価値のために、ユーザの生活を危険にさらす、重大なセキュリティ上の課題に対処されている。
新しいIDS(Intrusion Detection Systems)フレームワークを導入し、ANN(Artificial Neural Networks)を侵入検知に利用し、FL(Federated Learning)をプライバシ保護に活用する。
論文 参考訳(メタデータ) (2024-03-14T11:57:26Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - U-PASS: an Uncertainty-guided deep learning Pipeline for Automated Sleep
Staging [61.6346401960268]
プロセスの各段階で不確実性推定を組み込んだ臨床応用に適した,U-PASSと呼ばれる機械学習パイプラインを提案する。
不確実性誘導型ディープラーニングパイプラインを睡眠ステージングの困難な問題に適用し、各ステージにおけるパフォーマンスを体系的に改善することを示す。
論文 参考訳(メタデータ) (2023-06-07T08:27:36Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。