論文の概要: Data Poisoning Vulnerabilities Across Healthcare AI Architectures: A Security Threat Analysis
- arxiv url: http://arxiv.org/abs/2511.11020v1
- Date: Fri, 14 Nov 2025 07:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.473081
- Title: Data Poisoning Vulnerabilities Across Healthcare AI Architectures: A Security Threat Analysis
- Title(参考訳): 医療AIアーキテクチャ全体のデータポリシ脆弱性:セキュリティの脅威分析
- Authors: Farhad Abtahi, Fernando Seoane, Iván Pau, Mario Vega-Barbas,
- Abstract要約: 我々は,畳み込みニューラルネットワークに対するアーキテクチャ攻撃,大規模言語モデル,強化学習エージェントの4つのカテゴリの8つの攻撃シナリオを分析した。
以上の結果から,100~500サンプルしかアクセスできないアタッカーは,データセットのサイズに関わらず,医療AIを侵害する可能性が示唆された。
我々は、必要な敵検定、アンサンブルに基づく検出、プライバシー保護セキュリティ機構、AIセキュリティ標準に関する国際調整を含む多層防御を推奨する。
- 参考スコア(独自算出の注目度): 39.89241412792336
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Healthcare AI systems face major vulnerabilities to data poisoning that current defenses and regulations cannot adequately address. We analyzed eight attack scenarios in four categories: architectural attacks on convolutional neural networks, large language models, and reinforcement learning agents; infrastructure attacks exploiting federated learning and medical documentation systems; critical resource allocation attacks affecting organ transplantation and crisis triage; and supply chain attacks targeting commercial foundation models. Our findings indicate that attackers with access to only 100-500 samples can compromise healthcare AI regardless of dataset size, often achieving over 60 percent success, with detection taking an estimated 6 to 12 months or sometimes not occurring at all. The distributed nature of healthcare infrastructure creates many entry points where insiders with routine access can launch attacks with limited technical skill. Privacy laws such as HIPAA and GDPR can unintentionally shield attackers by restricting the analyses needed for detection. Supply chain weaknesses allow a single compromised vendor to poison models across 50 to 200 institutions. The Medical Scribe Sybil scenario shows how coordinated fake patient visits can poison data through legitimate clinical workflows without requiring a system breach. Current regulations lack mandatory adversarial robustness testing, and federated learning can worsen risks by obscuring attribution. We recommend multilayer defenses including required adversarial testing, ensemble-based detection, privacy-preserving security mechanisms, and international coordination on AI security standards. We also question whether opaque black-box models are suitable for high-stakes clinical decisions, suggesting a shift toward interpretable systems with verifiable safety guarantees.
- Abstract(参考訳): 医療AIシステムは、現在の防衛や規制が適切に対処できないデータ中毒の大きな脆弱性に直面している。
我々は,畳み込みニューラルネットワーク,大規模言語モデル,強化学習エージェントに対するアーキテクチャ攻撃,連合学習と医療文書システムを利用したインフラ攻撃,臓器移植と危機トリアージに影響を及ぼす重要な資源割り当て攻撃,商業基盤モデルをターゲットにしたサプライチェーン攻撃の4つのカテゴリの攻撃シナリオを分析した。
以上の結果から,100~500サンプルしかアクセスできないアタッカーは,データセットのサイズに関わらず医療AIを侵害し,60パーセント以上の成功率を達成でき,検出に6~12ヶ月を要し,場合によっては発生しない可能性があることが示唆された。
医療インフラの分散した性質は、定期的なアクセスを持つインサイダーが限られた技術スキルで攻撃を起動できる多くのエントリポイントを生み出します。
HIPAAやGDPRのようなプライバシー法は、検知に必要な分析を制限することによって、攻撃者を意図せずに保護することができる。
サプライチェーンの弱点により、単一ベンダーが50から200の機関でモデルに毒を盛ることが可能になる。
Medical Scribe Sybilのシナリオでは、偽の患者がシステムに侵入することなく、合法的な臨床ワークフローを通じてデータを汚染する方法が示されています。
現在の規制では、必然的な敵の堅牢性テストが欠如しており、連合学習は帰属を隠蔽することでリスクを悪化させる可能性がある。
我々は、必要な敵検定、アンサンブルに基づく検出、プライバシー保護セキュリティ機構、AIセキュリティ標準に関する国際調整を含む多層防御を推奨する。
また,不透明なブラックボックスモデルが高精細な臨床診断に適しているかどうかも疑問視し,安全性が検証可能なシステムへのシフトを示唆した。
関連論文リスト
- Adversarially-Aware Architecture Design for Robust Medical AI Systems [0.0]
敵対的攻撃は、医療で使用されるAIシステムに深刻なリスクをもたらす。
本研究は,皮膚科学データセットを用いた経験的実験を通じて,これらの脆弱性を探索するものである。
私たちは、医療においてよりレジリエントで公平なAIを構築するための、技術的、倫理的、ポリシーに基づく統合的なアプローチを呼びかけて締めくくります。
論文 参考訳(メタデータ) (2025-10-23T16:51:11Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - MedSentry: Understanding and Mitigating Safety Risks in Medical LLM Multi-Agent Systems [24.60202452646343]
MedSentryは、100のサブテーマを持つ25のカテゴリにまたがる5万の相手医療プロンプトのベンチマークである。
我々は,4つの代表的マルチエージェントトポロジが「暗黒人格」エージェントからの攻撃に耐えられるかを分析するために,エンド・ツー・エンドの攻撃防御評価パイプラインを開発した。
論文 参考訳(メタデータ) (2025-05-27T07:34:40Z) - CANTXSec: A Deterministic Intrusion Detection and Prevention System for CAN Bus Monitoring ECU Activations [53.036288487863786]
物理ECUアクティベーションに基づく最初の決定論的侵入検知・防止システムであるCANTXSecを提案する。
CANバスの古典的な攻撃を検知・防止し、文献では調査されていない高度な攻撃を検知する。
物理テストベッド上での解法の有効性を実証し,攻撃の両クラスにおいて100%検出精度を達成し,100%のFIAを防止した。
論文 参考訳(メタデータ) (2025-05-14T13:37:07Z) - Breaking the Flow and the Bank: Stealthy Cyberattacks on Water Network Hydraulics [3.360922672565235]
Stealthy False Data Injection Attacks (SFDIA)は、検出を回避しながらシステム操作を妥協する。
本稿では,水分散ネットワーク(WDN)に対するセンサ攻撃の系統的解析について述べる。
本稿では,身体的および検出的制約を満たす調整戦略から,簡易な計測操作まで,いくつかの攻撃形式を提案する。
論文 参考訳(メタデータ) (2025-04-24T02:54:20Z) - IDU-Detector: A Synergistic Framework for Robust Masquerader Attack Detection [3.3821216642235608]
デジタル時代には、ユーザは個人データを企業データベースに格納し、データセキュリティを企業管理の中心とする。
大規模な攻撃面を考えると、アセットは弱い認証、脆弱性、マルウェアといった課題に直面している。
IDU-Detectorを導入し、侵入検知システム(IDS)とユーザ・エンティティ・ビヘイビア・アナリティクス(UEBA)を統合した。
この統合は、不正アクセスを監視し、システムギャップをブリッジし、継続的な監視を保証し、脅威識別を強化する。
論文 参考訳(メタデータ) (2024-11-09T13:03:29Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Can't Boil This Frog: Robustness of Online-Trained Autoencoder-Based
Anomaly Detectors to Adversarial Poisoning Attacks [26.09388179354751]
本研究は,オンライン学習型オートエンコーダを用いたアタック検出装置に対する中毒攻撃に焦点を当てた最初の研究である。
提案アルゴリズムは, オートエンコーダ検出器によって検出されない標的攻撃の原因となる毒のサンプルを生成することができることを示す。
この発見は、サイバー物理領域で使用されるニューラルネットワークベースの攻撃検出器が、他の問題領域よりも毒性に強いことを示唆している。
論文 参考訳(メタデータ) (2020-02-07T12:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。