論文の概要: Adversarially-Aware Architecture Design for Robust Medical AI Systems
- arxiv url: http://arxiv.org/abs/2510.23622v1
- Date: Thu, 23 Oct 2025 16:51:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.290341
- Title: Adversarially-Aware Architecture Design for Robust Medical AI Systems
- Title(参考訳): ロバストな医療用AIシステムのための適応型アーキテクチャ設計
- Authors: Alyssa Gerhart, Balaji Iyangar,
- Abstract要約: 敵対的攻撃は、医療で使用されるAIシステムに深刻なリスクをもたらす。
本研究は,皮膚科学データセットを用いた経験的実験を通じて,これらの脆弱性を探索するものである。
私たちは、医療においてよりレジリエントで公平なAIを構築するための、技術的、倫理的、ポリシーに基づく統合的なアプローチを呼びかけて締めくくります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Adversarial attacks pose a severe risk to AI systems used in healthcare, capable of misleading models into dangerous misclassifications that can delay treatments or cause misdiagnoses. These attacks, often imperceptible to human perception, threaten patient safety, particularly in underserved populations. Our study explores these vulnerabilities through empirical experimentation on a dermatological dataset, where adversarial methods significantly reduce classification accuracy. Through detailed threat modeling, experimental benchmarking, and model evaluation, we demonstrate both the severity of the threat and the partial success of defenses like adversarial training and distillation. Our results show that while defenses reduce attack success rates, they must be balanced against model performance on clean data. We conclude with a call for integrated technical, ethical, and policy-based approaches to build more resilient, equitable AI in healthcare.
- Abstract(参考訳): 敵対的な攻撃は、医療で使用されるAIシステムに深刻なリスクをもたらし、治療を遅らせたり、誤診断を引き起こす可能性のある危険な誤分類にモデルを誘導する。
これらの攻撃は、しばしば人間の知覚に影響を与えず、患者、特に保存されていない人口の安全を脅かす。
本研究は, 皮膚科学的データセットを用いた経験的実験により, これらの脆弱性を探索し, 逆法により分類精度が著しく低下することを示した。
詳細な脅威モデリング、実験的ベンチマーク、モデル評価を通じて、脅威の深刻度と、敵の訓練や蒸留のような防御の部分的にの成功の両方を実証する。
この結果から, 防御は攻撃成功率を低下させるが, クリーンデータ上でのモデル性能に対してバランスを取らなければならないことがわかった。
私たちは、医療においてよりレジリエントで公平なAIを構築するための、技術的、倫理的、ポリシーに基づく統合的なアプローチを呼びかけて締めくくります。
関連論文リスト
- DUMB and DUMBer: Is Adversarial Training Worth It in the Real World? [15.469010487781931]
敵の例は小さく、しばしば、愚かな機械学習モデルのために作られた、知覚不能な摂動である。
侵入攻撃(英語: Evasion attack)とは、入力がテスト時に誤分類を引き起こすように修正される敵攻撃の一種であり、その伝達性のために特に不快である。
本稿では,DUMB法の基礎の上に構築された攻撃フレームワークであるDUMBerを紹介し,敵の訓練したモデルの弾力性を評価する。
論文 参考訳(メタデータ) (2025-06-23T11:16:21Z) - Keeping Medical AI Healthy: A Review of Detection and Correction Methods for System Degradation [6.781778751487079]
このレビューでは、医療におけるAIシステムの「健康」の監視と維持について、前向きな視点を提示する。
継続的パフォーマンス監視、早期劣化検出、効果的な自己補正メカニズムの緊急ニーズを強調します。
この研究は、ダイナミックな臨床環境における安全な長期展開を維持できる信頼性が高く堅牢な医療AIシステムの開発を導くことを目的としている。
論文 参考訳(メタデータ) (2025-06-20T19:22:07Z) - Preventing Adversarial AI Attacks Against Autonomous Situational Awareness: A Maritime Case Study [0.0]
アドリラル人工知能(AI)による攻撃は、自律走行に重大な脅威をもたらす。
本稿では、敵対的AIに関連する3つの重要な研究課題に対処する。
本稿では,複数入力とデータ融合を利用して防御部品を構築できるビルディングディフェンスを提案する。
論文 参考訳(メタデータ) (2025-05-27T17:59:05Z) - Detecting and Preventing Data Poisoning Attacks on AI Models [0.0]
本研究は,データ中毒の発生を検知・予防する新しい手法を開発し,評価することを目的とする。
本研究は, 異常検出, 頑健な最適化戦略, アンサンブル学習など, モデルトレーニング中の有毒データの影響を識別・緩和する様々な手法について検討した。
統計的異常検出および逆行訓練を含む防御機構が提案され, 毒性の軽減, モデルロバスト性の向上, 平均15~20%の精度回復が達成された。
論文 参考訳(メタデータ) (2025-03-12T11:55:01Z) - Safety at Scale: A Comprehensive Survey of Large Model and Agent Safety [296.5392512998251]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - The Hidden Adversarial Vulnerabilities of Medical Federated Learning [1.604444445227806]
以前のグローバルモデル更新からの勾配情報を使用することで、敵は攻撃の効率性と転送可能性を高めることができる。
我々の発見は、連邦医療環境におけるAIセキュリティの理解を再考する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-21T02:21:39Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。