論文の概要: Deep Learning Under Siege: Identifying Security Vulnerabilities and Risk Mitigation Strategies
- arxiv url: http://arxiv.org/abs/2409.09517v1
- Date: Sat, 14 Sep 2024 19:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 20:27:38.561315
- Title: Deep Learning Under Siege: Identifying Security Vulnerabilities and Risk Mitigation Strategies
- Title(参考訳): 包囲下のディープラーニング: セキュリティの脆弱性とリスク軽減戦略の特定
- Authors: Jamal Al-Karaki, Muhammad Al-Zafar Khan, Mostafa Mohamad, Dababrata Chowdhury,
- Abstract要約: 我々は、本番環境にデプロイされた現在のディープラーニングモデルに関連するセキュリティ上の課題を提示し、将来のDL技術の課題を予想する。
本稿では,これらの課題を抑制するためのリスク軽減手法を提案し,これらの指標の有効性を測定するための計量評価を行う。
- 参考スコア(独自算出の注目度): 0.5062312533373299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise in the wholesale adoption of Deep Learning (DL) models in nearly all aspects of society, a unique set of challenges is imposed. Primarily centered around the architectures of these models, these risks pose a significant challenge, and addressing these challenges is key to their successful implementation and usage in the future. In this research, we present the security challenges associated with the current DL models deployed into production, as well as anticipate the challenges of future DL technologies based on the advancements in computing, AI, and hardware technologies. In addition, we propose risk mitigation techniques to inhibit these challenges and provide metrical evaluations to measure the effectiveness of these metrics.
- Abstract(参考訳): 社会のほぼすべての面において、ディープラーニング(DL)モデルが全面的に普及するにつれて、ユニークな課題が課せられる。
主にこれらのモデルのアーキテクチャを中心にして、これらのリスクは大きな課題をもたらし、これらの課題に対処することが、将来の実装と使用の成功の鍵となります。
本研究では,現行のDLモデルと関連するセキュリティ上の課題について述べるとともに,コンピューティング,AI,ハードウェア技術の進歩に基づく今後のDL技術の課題を予見する。
さらに、これらの課題を抑制するためのリスク軽減手法を提案し、これらの指標の有効性を測定するための計量評価を提供する。
関連論文リスト
- Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Safety at Scale: A Comprehensive Survey of Large Model Safety [299.801463557549]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Grounding and Evaluation for Large Language Models: Practical Challenges and Lessons Learned (Survey) [16.39412083123155]
堅牢性、バイアス、セキュリティ、解釈可能性、その他の責任あるAI次元のために、AIシステムを評価し、監視することが不可欠である。
我々は,幻覚,有害かつマニピュティブなコンテンツ,著作権侵害などの新たな課題を提起する,大規模言語モデル(LLM)やその他の生成AIモデルに焦点を当てる。
論文 参考訳(メタデータ) (2024-07-10T01:23:10Z) - Foundational Challenges in Assuring Alignment and Safety of Large Language Models [171.01569693871676]
この研究は、大規模言語モデル(LLM)のアライメントと安全性の確保における18の基本的な課題を特定する。
特定された課題に基づいて、200ドル以上の具体的な研究質問を投げかけます。
論文 参考訳(メタデータ) (2024-04-15T16:58:28Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Adversarial Nibbler: A Data-Centric Challenge for Improving the Safety
of Text-to-Image Models [6.475537049815622]
Adversarial Nibblerはデータ中心のチャレンジであり、DataPerfチャレンジスイートの一部として、KaggleとMLCommonsが組織し、サポートしている。
論文 参考訳(メタデータ) (2023-05-22T15:02:40Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Machine Learning (In) Security: A Stream of Problems [17.471312325933244]
我々は、サイバーセキュリティデータに対する機械学習技術の正しい適用における主な課題を特定し、詳細化し、議論する。
我々は,概念のドリフト,進化,ラベルの遅延,および既存のソリューションに対する敵MLの影響を評価する。
我々は、ある状況下で既存の解決策が失敗する可能性を提示し、それらに対する緩和を提案する。
論文 参考訳(メタデータ) (2020-10-30T03:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。