論文の概要: Safeguarding Virtual Healthcare: A Novel Attacker-Centric Model for Data Security and Privacy
- arxiv url: http://arxiv.org/abs/2412.13440v1
- Date: Wed, 18 Dec 2024 02:21:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:22:40.882085
- Title: Safeguarding Virtual Healthcare: A Novel Attacker-Centric Model for Data Security and Privacy
- Title(参考訳): 仮想ヘルスケアの保護: データセキュリティとプライバシのための新たな攻撃者中心モデル
- Authors: Suvineetha Herath, Haywood Gelman, John Hastings, Yong Wang,
- Abstract要約: 遠隔医療提供は、保護された健康情報(PHI)に重大なセキュリティとプライバシのリスクをもたらした
本研究では,このようなセキュリティ事件の根本原因を調査し,攻撃者中心アプローチ(ACA)を導入する。
ACAは、全体的な攻撃に焦点を当てた視点を採用することで、既存の脅威モデルと規制フレームワークの制限に対処する。
- 参考スコア(独自算出の注目度): 3.537571223616615
- License:
- Abstract: The rapid growth of remote healthcare delivery has introduced significant security and privacy risks to protected health information (PHI). Analysis of a comprehensive healthcare security breach dataset covering 2009-2023 reveals their significant prevalence and impact. This study investigates the root causes of such security incidents and introduces the Attacker-Centric Approach (ACA), a novel threat model tailored to protect PHI. ACA addresses limitations in existing threat models and regulatory frameworks by adopting a holistic attacker-focused perspective, examining threats from the viewpoint of cyber adversaries, their motivations, tactics, and potential attack vectors. Leveraging established risk management frameworks, ACA provides a multi-layered approach to threat identification, risk assessment, and proactive mitigation strategies. A comprehensive threat library classifies physical, third-party, external, and internal threats. ACA's iterative nature and feedback mechanisms enable continuous adaptation to emerging threats, ensuring sustained effectiveness. ACA allows healthcare providers to proactively identify and mitigate vulnerabilities, fostering trust and supporting the secure adoption of virtual care technologies.
- Abstract(参考訳): 遠隔医療提供の急速な成長は、保護された健康情報(PHI)に重大なセキュリティとプライバシのリスクをもたらしている。
2009-2023年をカバーする包括的医療セキュリティ侵害データセットの分析は、その有病率と影響を明らかにしている。
本研究では,このようなセキュリティ事件の根本原因を調査し,PHI保護に適した新たな脅威モデルである攻撃者中心アプローチ(ACA)を紹介した。
ACAは、サイバー敵、彼らのモチベーション、戦術、潜在的な攻撃ベクトルの観点から脅威を検証し、全体論的攻撃に焦点を当てた視点を採用することで、既存の脅威モデルと規制フレームワークの制限に対処する。
確立されたリスク管理フレームワークを活用して、ACAは脅威識別、リスク評価、積極的な緩和戦略に対する多層アプローチを提供する。
包括的な脅威ライブラリは、物理的、第三者、外部、および内部の脅威を分類する。
ACAの反復的な性質とフィードバックメカニズムは、出現する脅威への継続的な適応を可能にし、持続的な有効性を保証する。
ACAは、医療提供者が積極的に脆弱性を特定し、緩和し、信頼を育み、バーチャルケア技術の安全な採用を支援する。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Enhancing Guardrails for Safe and Secure Healthcare AI [0.0]
私は、医療特有のニーズに合うように、Nvidia NeMo Guardrailsのような既存のガードレールフレームワークの強化を提案します。
私は、医療におけるAIの安全で信頼性が高く正確な使用を確実にし、誤情報リスクを軽減し、患者の安全性を向上させることを目指しています。
論文 参考訳(メタデータ) (2024-09-25T06:30:06Z) - SoK: Security and Privacy Risks of Medical AI [14.592921477833848]
テクノロジーと医療の統合は、人工知能と機械学習を利用したソフトウェアシステムが、医療製品やサービスの不可欠なコンポーネントとなった新しい時代に幕を閉じた。
本稿では、医療におけるAI/MLアプリケーションによるセキュリティとプライバシの脅威について検討する。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - The MESA Security Model 2.0: A Dynamic Framework for Mitigating Stealth Data Exfiltration [0.0]
ステルスデータ流出は、隠蔽侵入、拡張された検出不能、機密データの不正な拡散を特徴とする重要なサイバー脅威である。
以上の結果から,従来の防衛戦略はこれらの高度な脅威に対処するには不十分であることが判明した。
この複雑な風景をナビゲートする上で、潜在的な脅威を予測し、防衛を継続的に更新することが重要です。
論文 参考訳(メタデータ) (2024-05-17T16:14:45Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - The New Frontier of Cybersecurity: Emerging Threats and Innovations [0.0]
この研究は、個人、組織、社会全体に対するこれらの脅威の結果を掘り下げている。
これらの新興脅威の洗練と多様性は、サイバーセキュリティに対する多層的アプローチを必要とする。
本研究は、これらの脅威を緩和するための効果的な対策を実施することの重要性を強調する。
論文 参考訳(メタデータ) (2023-11-05T12:08:20Z) - White paper on cybersecurity in the healthcare sector. The HEIR solution [1.3717071154980571]
医療記録や財務情報を含む患者データは危険にさらされており、個人情報の盗難や患者の安全上の懸念につながる可能性がある。
HEIRプロジェクトは包括的なサイバーセキュリティアプローチを提供し、さまざまな規制フレームワークからセキュリティ機能を促進する。
これらの対策は、デジタルヘルスのセキュリティを強化し、機密性の高い患者データを保護し、セキュアなデータアクセスとプライバシ認識技術を促進することを目的としている。
論文 参考訳(メタデータ) (2023-10-16T07:27:57Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Digital Ariadne: Citizen Empowerment for Epidemic Control [55.41644538483948]
新型コロナウイルスの危機は、1918年のH1N1パンデミック以来、公衆衛生にとって最も危険な脅威である。
技術支援による位置追跡と接触追跡は、広く採用されれば、感染症の拡散を抑えるのに役立つかもしれない。
個人のデバイス上での自発的な位置情報とBluetoothトラッキングに基づいて、"diAry"や"digital Ariadne"と呼ばれるツールを提示する。
論文 参考訳(メタデータ) (2020-04-16T15:53:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。