論文の概要: Attacking and Defending Machine Learning Applications of Public Cloud
- arxiv url: http://arxiv.org/abs/2008.02076v1
- Date: Mon, 27 Jul 2020 14:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 11:47:42.299008
- Title: Attacking and Defending Machine Learning Applications of Public Cloud
- Title(参考訳): パブリッククラウドの機械学習アプリケーションに対する攻撃と防御
- Authors: Dou Goodman, Hao Xin
- Abstract要約: 敵の攻撃は、伝統的な安全保障防衛の境界を破る。
SDL for MLは、ML-as-a-serviceにおける脆弱性の数と重症度を減らすことで、開発者がよりセキュアなソフトウェアを構築するのに役立つ。
- 参考スコア(独自算出の注目度): 2.6197948384361514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attack breaks the boundaries of traditional security defense. For
adversarial attack and the characteristics of cloud services, we propose
Security Development Lifecycle for Machine Learning applications, e.g., SDL for
ML. The SDL for ML helps developers build more secure software by reducing the
number and severity of vulnerabilities in ML-as-a-service, while reducing
development cost.
- Abstract(参考訳): 敵の攻撃は従来の防犯の境界を破る。
本稿では,機械学習アプリケーションを対象としたセキュリティ開発ライフサイクル(SDL for ML)を提案する。
SDL for MLは、ML-as-a-serviceの脆弱性の数と深刻度を低減し、開発コストを低減し、よりセキュアなソフトウェアを構築するのに役立つ。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Tamper-Resistant Safeguards for Open-Weight LLMs [57.90526233549399]
オープンウェイトLLMにタンパ耐性保護具を組み込む方法を開発した。
本手法は良性を保持しながらタンパー抵抗を大幅に改善する。
以上の結果から, タンパー抵抗はトラクタブルな問題であることがわかった。
論文 参考訳(メタデータ) (2024-08-01T17:59:12Z) - Enhancing TinyML Security: Study of Adversarial Attack Transferability [0.35998666903987897]
この研究は、リソース制約の組込みハードウェア上でAIモデルの敵対的脆弱性を掘り下げるものである。
以上の結果から,強力なホストマシンからの敵攻撃は,ESP32やRaspberry Piなど,より小型で安全性の低いデバイスに転送される可能性が示唆された。
このことは、敵対的攻撃が小さなデバイスに拡張され、脆弱性が強調され、TinyMLデプロイメントにおける強化されたセキュリティ対策の必要性を強調していることを示している。
論文 参考訳(メタデータ) (2024-07-16T10:55:25Z) - Transforming Computer Security and Public Trust Through the Exploration of Fine-Tuning Large Language Models [0.0]
Mallasは、大きな言語モデル(LLM)を悪用する悪意のあるサービスである。
本稿では,様々な事前学習言語モデルとその効率と脆弱性を検証し,Mallasの増殖について考察する。
論文 参考訳(メタデータ) (2024-06-02T06:10:31Z) - Defensive Prompt Patch: A Robust and Interpretable Defense of LLMs against Jailbreak Attacks [59.46556573924901]
本稿では,大規模言語モデル(LLM)のための新しいプロンプトベースの防御機構であるDPPを紹介する。
従来のアプローチとは異なり、DPP は LLM の高能率を維持しながら最小の攻撃成功率 (ASR) を達成するように設計されている。
LLAMA-2-7B-ChatおよびMistral-7B-Instruct-v0.2モデルによる実験結果から,DSPの堅牢性と適応性が確認された。
論文 参考訳(メタデータ) (2024-05-30T14:40:35Z) - Generative AI and Large Language Models for Cyber Security: All Insights You Need [0.06597195879147556]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - Leveraging AI Planning For Detecting Cloud Security Vulnerabilities [15.503757553097387]
クラウドコンピューティングサービスは、データストレージ、処理、コラボレーションのためのスケーラブルで費用対効果の高いソリューションを提供する。
アクセス制御のミスコンフィグレーションが、クラウドアタックの主要な要因であることが多い。
本研究では,セキュリティ脆弱性を検出するPDDLモデルを開発し,ランサムウェアなどの広範囲な攻撃につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-16T03:28:02Z) - A Review of Machine Learning-based Security in Cloud Computing [5.384804060261833]
クラウドコンピューティング(CC)は、ITリソースのユーザへの提供方法に革命をもたらしている。
CCの成長に伴い、可用性、完全性、機密性への脅威など、セキュリティ上のリスクが多数発生している。
機械学習(ML)は、セキュリティ問題の特定と解決における人間の介入を減らすために、クラウドサービスプロバイダ(CSP)によってますます利用されている。
論文 参考訳(メタデータ) (2023-09-10T01:52:23Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。