論文の概要: A Framework for Assurance of Medication Safety using Machine Learning
- arxiv url: http://arxiv.org/abs/2101.05620v1
- Date: Mon, 11 Jan 2021 12:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-04-04 14:29:15.765191
- Title: A Framework for Assurance of Medication Safety using Machine Learning
- Title(参考訳): 機械学習を用いた薬剤安全性保証の枠組み
- Authors: Yan Jia, Tom Lawton, John McDermid, Eric Rojas, Ibrahim Habli
- Abstract要約: 本稿では,機械学習と安全工学を組み合わせた薬剤安全性を確保する枠組みを提案する。
専門家の意見に基づいて、安全分析を使用して、薬物エラーの潜在的な原因を積極的に特定する。
医療はデータに富んでいるため、機械学習による安全性分析を強化して、医薬品エラーの実際の原因を発見することができる。
- 参考スコア(独自算出の注目度): 8.661554246916118
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medication errors continue to be the leading cause of avoidable patient harm
in hospitals. This paper sets out a framework to assure medication safety that
combines machine learning and safety engineering methods. It uses safety
analysis to proactively identify potential causes of medication error, based on
expert opinion. As healthcare is now data rich, it is possible to augment
safety analysis with machine learning to discover actual causes of medication
error from the data, and to identify where they deviate from what was predicted
in the safety analysis. Combining these two views has the potential to enable
the risk of medication errors to be managed proactively and dynamically. We
apply the framework to a case study involving thoracic surgery, e.g.
oesophagectomy, where errors in giving beta-blockers can be critical to control
atrial fibrillation. This case study combines a HAZOP-based safety analysis
method known as SHARD with Bayesian network structure learning and process
mining to produce the analysis results, showing the potential of the framework
for ensuring patient safety, and for transforming the way that safety is
managed in complex healthcare environments.
- Abstract(参考訳): 薬の誤用は、病院で避けられる患者の危害の主な原因であり続けている。
本稿では,機械学習と安全工学を組み合わせた薬剤安全性を確保する枠組みを提案する。
専門家の意見に基づいて、安全分析を用いて薬物エラーの潜在的な原因を積極的に特定する。
医療はデータに富んでいるため、機械学習による安全性分析を強化して、データから医薬品エラーの実際の原因を発見し、安全分析で予測されたものから逸脱した場所を特定することができる。
これら2つのビューを組み合わせることで、薬物エラーのリスクを積極的に動的に管理できる可能性がある。
この枠組みを胸腔手術を含む症例研究に適用する。
心房細動の制御には、β遮断薬を投与するエラーが不可欠である。
このケーススタディでは、HAZOPベースの安全分析手法であるSHARDとベイジアンネットワーク構造学習とプロセスマイニングを組み合わせて分析結果を生成し、患者安全を確保するためのフレームワークの可能性を示し、複雑な医療環境における安全管理の方法を変える。
関連論文リスト
- Cloud based DevOps Framework for Identifying Risk Factors of Hospital Utilization [0.0]
本研究では,データサイエンスにおける継続的インテグレーションとデプロイメント(CI/CD)の実践の統合について検討する。
病院利用に伴うリスク要因を調べるデータ分析のために、エンドツーエンドのクラウドベースのDevOpsフレームワークが提案されている。
このフレームワークは、環境科学、ロボティクス、サイバーセキュリティ、文化遺産や芸術といった、まばらなデータセットドメインに特に有用である。
論文 参考訳(メタデータ) (2025-04-18T22:45:12Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - LabSafety Bench: Benchmarking LLMs on Safety Issues in Scientific Labs [75.85283891591678]
人工知能(AI)は科学研究に革命をもたらしていますが、実験室環境への統合が進むと、重要な安全上の課題が浮かび上がっています。
大規模言語モデル(LLM)は、手続き的なガイダンスから自律的な実験オーケストレーションまで、タスクをますます支援している。
このような過度な信頼性は、リスク識別やリスクアセスメントの失敗が重大事故を引き起こすような高リスクな実験室環境では特に危険である。
本研究では,LLM とビジョン言語モデル (VLM) を評価する総合的なフレームワークであるLab Safety Benchmark (LabSafety Bench) を提案する。
論文 参考訳(メタデータ) (2024-10-18T05:21:05Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - The Need for Guardrails with Large Language Models in Medical Safety-Critical Settings: An Artificial Intelligence Application in the Pharmacovigilance Ecosystem [0.6965384453064829]
大規模言語モデル(LLM)は、特定の種類の知識処理を効果的にスケールする能力を備えた有用なツールである。
しかし、高リスクで安全に重要な領域への展開は、特に幻覚の問題など、ユニークな課題を生んでいる。
これは特に、不正確さが患者を傷つける可能性がある薬物の安全性のような設定に関係している。
我々は、特定の種類の幻覚と薬物安全性のエラーを軽減するために特別に設計されたガードレールのコンセプトスイートを開発し、実証した。
論文 参考訳(メタデータ) (2024-07-01T19:52:41Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis [7.431812376079826]
安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
論文 参考訳(メタデータ) (2023-11-13T17:34:23Z) - Leveraging Traceability to Integrate Safety Analysis Artifacts into the
Software Development Process [51.42800587382228]
安全保証ケース(SAC)は、システムの進化中に維持することが困難である。
本稿では,ソフトウェアトレーサビリティを活用して,関連するシステムアーチファクトを安全解析モデルに接続する手法を提案する。
安全ステークホルダーがシステム変更が安全性に与える影響を分析するのに役立つように、システム変更の合理性を設計する。
論文 参考訳(メタデータ) (2023-07-14T16:03:27Z) - Towards Developing Safety Assurance Cases for Learning-Enabled Medical
Cyber-Physical Systems [3.098385261166847]
我々は、学習可能なMCPSにおける機械学習コントローラの安全性保証ケースを開発する。
我々は,人工膵システムにおける予測のためのディープニューラルネットワークを実装することで,詳細な解析を行う。
本稿では,MLデータの妥当性を確認し,形式的検証を用いてMLに基づく予測の正しさを解析する。
論文 参考訳(メタデータ) (2022-11-23T22:43:48Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - The Role of Explainability in Assuring Safety of Machine Learning in
Healthcare [9.462125772941347]
本稿では、MLベースのシステムの安全性保証に説明可能なAI手法が寄与する方法について述べる。
結果は安全引数として表現され、どのようにして説明可能なAIメソッドが安全ケースに寄与できるかを示す。
論文 参考訳(メタデータ) (2021-09-01T09:32:14Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。