論文の概要: Deep Learning Under Siege: Identifying Security Vulnerabilities and Risk Mitigation Strategies
- arxiv url: http://arxiv.org/abs/2409.09517v1
- Date: Sat, 14 Sep 2024 19:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 20:27:38.561315
- Title: Deep Learning Under Siege: Identifying Security Vulnerabilities and Risk Mitigation Strategies
- Title(参考訳): 包囲下のディープラーニング: セキュリティの脆弱性とリスク軽減戦略の特定
- Authors: Jamal Al-Karaki, Muhammad Al-Zafar Khan, Mostafa Mohamad, Dababrata Chowdhury,
- Abstract要約: 我々は、本番環境にデプロイされた現在のディープラーニングモデルに関連するセキュリティ上の課題を提示し、将来のDL技術の課題を予想する。
本稿では,これらの課題を抑制するためのリスク軽減手法を提案し,これらの指標の有効性を測定するための計量評価を行う。
- 参考スコア(独自算出の注目度): 0.5062312533373299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise in the wholesale adoption of Deep Learning (DL) models in nearly all aspects of society, a unique set of challenges is imposed. Primarily centered around the architectures of these models, these risks pose a significant challenge, and addressing these challenges is key to their successful implementation and usage in the future. In this research, we present the security challenges associated with the current DL models deployed into production, as well as anticipate the challenges of future DL technologies based on the advancements in computing, AI, and hardware technologies. In addition, we propose risk mitigation techniques to inhibit these challenges and provide metrical evaluations to measure the effectiveness of these metrics.
- Abstract(参考訳): 社会のほぼすべての面において、ディープラーニング(DL)モデルが全面的に普及するにつれて、ユニークな課題が課せられる。
主にこれらのモデルのアーキテクチャを中心にして、これらのリスクは大きな課題をもたらし、これらの課題に対処することが、将来の実装と使用の成功の鍵となります。
本研究では,現行のDLモデルと関連するセキュリティ上の課題について述べるとともに,コンピューティング,AI,ハードウェア技術の進歩に基づく今後のDL技術の課題を予見する。
さらに、これらの課題を抑制するためのリスク軽減手法を提案し、これらの指標の有効性を測定するための計量評価を提供する。
関連論文リスト
- A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Grounding and Evaluation for Large Language Models: Practical Challenges and Lessons Learned (Survey) [16.39412083123155]
堅牢性、バイアス、セキュリティ、解釈可能性、その他の責任あるAI次元のために、AIシステムを評価し、監視することが不可欠である。
我々は,幻覚,有害かつマニピュティブなコンテンツ,著作権侵害などの新たな課題を提起する,大規模言語モデル(LLM)やその他の生成AIモデルに焦点を当てる。
論文 参考訳(メタデータ) (2024-07-10T01:23:10Z) - Foundational Challenges in Assuring Alignment and Safety of Large Language Models [171.01569693871676]
この研究は、大規模言語モデル(LLM)のアライメントと安全性の確保における18の基本的な課題を特定する。
特定された課題に基づいて、200ドル以上の具体的な研究質問を投げかけます。
論文 参考訳(メタデータ) (2024-04-15T16:58:28Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - Adversarial Nibbler: A Data-Centric Challenge for Improving the Safety
of Text-to-Image Models [6.475537049815622]
Adversarial Nibblerはデータ中心のチャレンジであり、DataPerfチャレンジスイートの一部として、KaggleとMLCommonsが組織し、サポートしている。
論文 参考訳(メタデータ) (2023-05-22T15:02:40Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Machine Learning (In) Security: A Stream of Problems [17.471312325933244]
我々は、サイバーセキュリティデータに対する機械学習技術の正しい適用における主な課題を特定し、詳細化し、議論する。
我々は,概念のドリフト,進化,ラベルの遅延,および既存のソリューションに対する敵MLの影響を評価する。
我々は、ある状況下で既存の解決策が失敗する可能性を提示し、それらに対する緩和を提案する。
論文 参考訳(メタデータ) (2020-10-30T03:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。