論文の概要: Machine Learning Based Cyber Attacks Targeting on Controlled
Information: A Survey
- arxiv url: http://arxiv.org/abs/2102.07969v1
- Date: Tue, 16 Feb 2021 05:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:51:04.312465
- Title: Machine Learning Based Cyber Attacks Targeting on Controlled
Information: A Survey
- Title(参考訳): 制御情報をターゲットにした機械学習ベースのサイバー攻撃:調査
- Authors: Yuantian Miao, Chao Chen, Lei Pan, Qing-Long Han, Jun Zhang, Yang
Xiang
- Abstract要約: 近年、情報漏洩事件の増加とともに、制御された情報に対する盗聴攻撃がサイバーセキュリティの脅威として浮上している。
高度な分析ソリューションの開発と展開が急増しているため、新しい盗用攻撃は機械学習(ML)アルゴリズムを使用して高い成功率を達成し、多くの損傷を引き起こします。
近年の出版物は、包括的な攻撃方法論を一般化し、MLベースの盗難攻撃の限界と今後の方向性を導き出すために要約されている。
- 参考スコア(独自算出の注目度): 21.83335578561706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stealing attack against controlled information, along with the increasing
number of information leakage incidents, has become an emerging cyber security
threat in recent years. Due to the booming development and deployment of
advanced analytics solutions, novel stealing attacks utilize machine learning
(ML) algorithms to achieve high success rate and cause a lot of damage.
Detecting and defending against such attacks is challenging and urgent so that
governments, organizations, and individuals should attach great importance to
the ML-based stealing attacks. This survey presents the recent advances in this
new type of attack and corresponding countermeasures. The ML-based stealing
attack is reviewed in perspectives of three categories of targeted controlled
information, including controlled user activities, controlled ML model-related
information, and controlled authentication information. Recent publications are
summarized to generalize an overarching attack methodology and to derive the
limitations and future directions of ML-based stealing attacks. Furthermore,
countermeasures are proposed towards developing effective protections from
three aspects -- detection, disruption, and isolation.
- Abstract(参考訳): 近年、情報漏洩事件の増加とともに、制御された情報に対する盗聴攻撃がサイバーセキュリティの脅威として浮上している。
高度な分析ソリューションの開発と展開が急増しているため、新しい盗用攻撃は機械学習(ML)アルゴリズムを使用して高い成功率を達成し、多くの損傷を引き起こします。
このような攻撃を検知し、防御することは困難で緊急であり、政府、組織、個人はMLベースの盗難攻撃に非常に重要である。
本調査は, この新しい攻撃方法と対応対策の最近の進歩を示すものである。
MLベースの盗用攻撃は、制御されたユーザーアクティビティ、制御されたMLモデル関連情報、および制御された認証情報を含む3つのカテゴリのターゲット管理情報の観点からレビューされます。
近年の出版物は、包括的な攻撃方法論を一般化し、MLベースの盗難攻撃の限界と今後の方向性を導き出すために要約されている。
さらに,検出,破壊,隔離という3つの側面から効果的な保護を開発するための対策が提案されている。
関連論文リスト
- Adversarial Attacks of Vision Tasks in the Past 10 Years: A Survey [21.4046846701173]
敵対的攻撃は、機械学習推論中に重大なセキュリティ脅威を引き起こす。
既存のレビューは、しばしば攻撃分類に焦点を合わせ、包括的で詳細な分析を欠いている。
本稿は、従来のLVLM攻撃とLVLM攻撃の包括的概要を提供することによって、これらのギャップに対処する。
論文 参考訳(メタデータ) (2024-10-31T07:22:51Z) - Safety in Graph Machine Learning: Threats and Safeguards [84.26643884225834]
社会的利益にもかかわらず、最近の研究はグラフMLモデルの普及に伴う重要な安全性上の懸念を浮き彫りにしている。
安全性を重視した設計が欠如しているため、これらのモデルは信頼性の低い予測を導き、一般化性の低下を示し、データの機密性を侵害することができる。
金融詐欺検出のような高額なシナリオでは、これらの脆弱性は個人と社会の両方を全般的に危険に晒す可能性がある。
論文 参考訳(メタデータ) (2024-05-17T18:11:11Z) - A Comprehensive Survey of Attack Techniques, Implementation, and Mitigation Strategies in Large Language Models [0.0]
この記事では、モデル自体に対する攻撃と、モデルアプリケーションに対する攻撃という2つの攻撃カテゴリについて説明する。
前者は専門知識、モデルデータへのアクセス、重要な実装時間が必要です。
後者は攻撃者にはよりアクセスしやすく、注目されている。
論文 参考訳(メタデータ) (2023-12-18T07:07:32Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Backdoor Attacks and Countermeasures in Natural Language Processing Models: A Comprehensive Security Review [15.179940846141873]
サードパーティのデータやモデルを応用することは、NLPにおける言語モデリングの新しいパラダイムとなっている。
バックドア攻撃は 特定のトリガーを通して 予測された行動を示す モデルを誘導できる
セキュリティ上の課題、攻撃者の能力、目的を反映した、体系的で包括的なレビューはまだない。
論文 参考訳(メタデータ) (2023-09-12T08:48:38Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Effectiveness of Moving Target Defenses for Adversarial Attacks in
ML-based Malware Detection [0.0]
近年,敵ML攻撃に対する標的防御(MTD)の移動が提案されている。
マルウェア検出領域に適用した敵ML攻撃に対する最近のMTDの有効性を初めて検討した。
転送可能性とクエリアタック戦略は,これらの防御に対して高いレベルの回避を達成できることを示す。
論文 参考訳(メタデータ) (2023-02-01T16:03:34Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。