論文の概要: Jupyter Notebook Attacks Taxonomy: Ransomware, Data Exfiltration, and Security Misconfiguration
- arxiv url: http://arxiv.org/abs/2409.19456v1
- Date: Sat, 28 Sep 2024 20:59:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 23:07:28.766192
- Title: Jupyter Notebook Attacks Taxonomy: Ransomware, Data Exfiltration, and Security Misconfiguration
- Title(参考訳): Jupyterのノートブックが分類を攻撃:ランサムウェア、データ流出、セキュリティのミスコンフィグレーション
- Authors: Phuong Cao,
- Abstract要約: Jupyter Notebooksを使用したオープンサイエンスコラボレーションは、高価なトレーニング済みAIモデル、高性能コンピューティングリソース、セキュリティ脆弱性に対するデータトレーニングを公開できる。
本稿では,Jupyter Notebooksのネットワークによる攻撃分類について述べる。
Jupyterを監査する設計をレイアウトし、このような攻撃に対してより良い可視性を持たせる。
- 参考スコア(独自算出の注目度): 0.13597551064547497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Open-science collaboration using Jupyter Notebooks may expose expensively trained AI models, high-performance computing resources, and training data to security vulnerabilities, such as unauthorized access, accidental deletion, or misuse. The ubiquitous deployments of Jupyter Notebooks (~11 million public notebooks on Github have transformed collaborative scientific computing by enabling reproducible research. Jupyter is the main HPC's science gateway interface between AI researchers and supercomputers at academic institutions, such as the National Center for Supercomputing Applications (NCSA), national labs, and the industry. An impactful attack targeting Jupyter could disrupt scientific missions and business operations. This paper describes the network-based attack taxonomy of Jupyter Notebooks, such as ransomware, data exfiltration, security misconfiguration, and resource abuse for cryptocurrency mining. The open nature of Jupyter (direct data access, arbitrary code execution in multiple programming languages kernels) and its vast attack interface (terminal, file browser, untrusted cells) also attract attacks attempting to misuse supercomputing resources and steal state-of-the-art research artifacts. Jupyter uses encrypted datagrams of rapidly evolving WebSocket protocols that challenge even the most state-of-the-art network observability tools, such as Zeek. We envisage even more sophisticated AI-driven attacks can be adapted to target Jupyter, where defenders have limited visibility. In addition, Jupyter's cryptographic design should be adapted to resist emerging quantum threats. On balance, this is the first paper to systematically describe the threat model against Jupyter Notebooks and lay out the design of auditing Jupyter to have better visibility against such attacks.
- Abstract(参考訳): Jupyter Notebooksを使用したオープンサイエンスコラボレーションは、高価なトレーニングされたAIモデル、高性能コンピューティングリソース、不正アクセス、偶発的削除、誤用といったセキュリティ上の脆弱性に対するデータトレーニングを公開する可能性がある。
Jupyter Notebooks(Githubの公開ノート約1100万枚)のユビキタスな展開は、再現可能な研究を可能にすることで、協調的な科学計算を変革した。
ジュピターは、国立スーパーコンピュータ応用センター(NCSA)や国立研究所、産業などの学術機関のAI研究者とスーパーコンピュータの間のHPCの科学ゲートウェイインターフェースである。
ジュピターを標的とする攻撃は科学的な任務や事業を妨害する可能性がある。
本稿では,Jupyter Notebooksのネットワークによる攻撃分類について述べる。
Jupyter(直接データアクセス、複数のプログラミング言語カーネルでの任意のコード実行)のオープンな性質と、その巨大なアタックインターフェース(端末、ファイルブラウザ、信頼できないセル)もまた、スーパーコンピュータのリソースを誤用し、最先端の研究成果物を盗もうとするアタックを惹きつけている。
Jupyterは、急速に進化するWebSocketプロトコルの暗号化データグラムを使用して、Zeekのような最先端のネットワーク可観測性ツールにも挑戦する。
私たちは、より高度なAI駆動の攻撃がJupyterをターゲットに適応し、守備隊の視界が限られていることを考えています。
さらに、ジュピターの暗号設計は、出現する量子脅威に対処するために適応すべきである。
バランスに関して、この論文はJupyter Notebooksに対する脅威モデルを体系的に記述し、Jupyterをこのような攻撃に対してより良い可視性を持つよう監査する設計を概説した最初の論文である。
関連論文リスト
- SoK: A Systems Perspective on Compound AI Threats and Countermeasures [3.458371054070399]
我々は、複合AIシステムに適用可能な、異なるソフトウェアとハードウェアの攻撃について議論する。
複数の攻撃機構を組み合わせることで、孤立攻撃に必要な脅威モデル仮定をいかに削減できるかを示す。
論文 参考訳(メタデータ) (2024-11-20T17:08:38Z) - Hack Me If You Can: Aggregating AutoEncoders for Countering Persistent Access Threats Within Highly Imbalanced Data [4.619717316983648]
Advanced Persistent Threats (APTs) は高度で標的となるサイバー攻撃であり、システムへの不正アクセスと長期にわたって検出されないように設計されている。
AE-APTは,基本的なものからトランスフォーマーベースのものまで,一連のAutoEncoderメソッドを特徴とする,深層学習に基づくAPT検出ツールである。
その結果,AE-APTは競合他社に比べて検出速度が有意に高く,異常検出・ランク付け性能が優れていた。
論文 参考訳(メタデータ) (2024-06-27T14:45:38Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Modelling DDoS Attacks in IoT Networks using Machine Learning [21.812642970826563]
TCP固有の攻撃は、攻撃者がサイバー物理システムで使用できる最も有効なツールの1つである。
本研究では、CPS-IoTにおけるDDoS攻撃を検出するための教師付き、教師なし、および半教師付き機械学習アルゴリズムの有効性を比較する。
論文 参考訳(メタデータ) (2021-12-10T12:09:26Z) - ADVERSARIALuscator: An Adversarial-DRL Based Obfuscator and Metamorphic
Malware SwarmGenerator [2.4493299476776778]
本稿では,ADVERSARIALuscatorについて紹介する。Adversarial-DRLを用いてマルウェアをオペコードレベルで難読化する新しいシステムである。
ADVERSARIALuscatorは、AIベースのメタモルフィックマルウェア攻撃の群れを表すデータを生成するために使用できる。
論文 参考訳(メタデータ) (2021-09-23T10:50:41Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Intrusion detection in computer systems by using artificial neural
networks with Deep Learning approaches [0.0]
コンピュータネットワークへの侵入検知は、サイバーセキュリティにおける最も重要な問題の1つとなっている。
本稿では,ディープラーニングアーキテクチャに基づく侵入検知システムの設計と実装に焦点を当てる。
論文 参考訳(メタデータ) (2020-12-15T19:12:23Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。