論文の概要: AIJack: Security and Privacy Risk Simulator for Machine Learning
- arxiv url: http://arxiv.org/abs/2312.17667v1
- Date: Fri, 29 Dec 2023 16:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-02 09:22:00.612304
- Title: AIJack: Security and Privacy Risk Simulator for Machine Learning
- Title(参考訳): AIJack: マシンラーニングのためのセキュリティとプライバシリスクシミュレータ
- Authors: Hideaki Takahashi
- Abstract要約: AIJackは、機械学習モデルのトレーニングとデプロイに関連するセキュリティとプライバシのリスクを評価するために設計された、オープンソースのライブラリである。
統一されたAPIを通じて、様々な攻撃および防御方法のライブラリを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces AIJack, an open-source library designed to assess
security and privacy risks associated with the training and deployment of
machine learning models. Amid the growing interest in big data and AI,
advancements in machine learning research and business are accelerating.
However, recent studies reveal potential threats, such as the theft of training
data and the manipulation of models by malicious attackers. Therefore, a
comprehensive understanding of machine learning's security and privacy
vulnerabilities is crucial for the safe integration of machine learning into
real-world products. AIJack aims to address this need by providing a library
with various attack and defense methods through a unified API. The library is
publicly available on GitHub (https://github.com/Koukyosyumei/AIJack).
- Abstract(参考訳): 本稿では,機械学習モデルのトレーニングとデプロイメントに関連するセキュリティとプライバシのリスクを評価可能な,オープンソースのライブラリであるaijackを紹介する。
ビッグデータとaiへの関心が高まる中、機械学習の研究とビジネスの進歩が加速している。
しかし、最近の研究では、トレーニングデータの盗難や悪意のある攻撃者によるモデルの操作など、潜在的な脅威が明らかになっている。
したがって、機械学習のセキュリティとプライバシの脆弱性に関する包括的な理解は、機械学習を現実世界の製品に安全に統合するために不可欠である。
AIJackは、統一されたAPIを通じて、さまざまな攻撃および防御メソッドを備えたライブラリを提供することで、このニーズに対処することを目指している。
ライブラリはgithubで公開されている(https://github.com/koukyosyumei/aijack)。
関連論文リスト
- Towards more Practical Threat Models in Artificial Intelligence Security [71.53333444240076]
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
我々の論文は、人工知能のセキュリティにおけるより実用的な脅威モデルを研究するための行動である。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Balancing Transparency and Risk: The Security and Privacy Risks of
Open-Source Machine Learning Models [31.658006126446175]
本稿では,オープンソースモデルの使用に伴う共通プライバシーとセキュリティの脅威について概観する。
これらの危険に対する認識を高めることで、私たちはAIシステムの責任と安全な利用を促進することに努めます。
論文 参考訳(メタデータ) (2023-08-18T11:59:15Z) - Evil from Within: Machine Learning Backdoors through Hardware Trojans [72.99519529521919]
バックドアは、自動運転車のようなセキュリティクリティカルなシステムの整合性を損なう可能性があるため、機械学習に深刻な脅威をもたらす。
私たちは、機械学習のための一般的なハードウェアアクセラレーターに完全に存在するバックドアアタックを導入します。
我々は,Xilinx Vitis AI DPUにハードウェアトロイの木馬を埋め込むことにより,攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2023-04-17T16:24:48Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Security for Machine Learning-based Software Systems: a survey of
threats, practices and challenges [0.76146285961466]
機械学習ベースのモダンソフトウェアシステム(MLBSS)を安全に開発する方法は、依然として大きな課題である。
潜伏中の脆弱性と、外部のユーザーや攻撃者に暴露されるプライバシー問題は、ほとんど無視され、特定が難しい。
機械学習ベースのソフトウェアシステムのセキュリティは、固有のシステム欠陥や外敵攻撃から生じる可能性があると考えている。
論文 参考訳(メタデータ) (2022-01-12T23:20:25Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Confidential Machine Learning on Untrusted Platforms: A Survey [10.45742327204133]
我々は機密機械学習(CML)の暗号的アプローチに焦点を当てる。
また、ハードウェア支援の機密コンピューティング環境における摂動ベースのアプローチやCMLなどの他の方向もカバーします。
この議論は、関連する脅威モデル、セキュリティの仮定、攻撃、設計哲学、およびデータユーティリティ、コスト、機密性間の関連するトレードオフの豊富なコンテキストを考慮するための包括的な方法を取ります。
論文 参考訳(メタデータ) (2020-12-15T08:57:02Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - An Overview of Privacy in Machine Learning [2.8935588665357077]
この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
論文 参考訳(メタデータ) (2020-05-18T13:05:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。