論文の概要: Adversarial Machine Learning Security Problems for 6G: mmWave Beam
Prediction Use-Case
- arxiv url: http://arxiv.org/abs/2103.07268v1
- Date: Fri, 12 Mar 2021 13:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:32:05.098164
- Title: Adversarial Machine Learning Security Problems for 6G: mmWave Beam
Prediction Use-Case
- Title(参考訳): 6Gの対比機械学習セキュリティ問題:mm波ビーム予測利用ケース
- Authors: Evren Catak, Ferhat Ozgur Catak, Arild Moldsvor
- Abstract要約: 本稿では,提案する6G機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主なアイデアは、誤った結果を生み出すことである。
また,ミリ波ビーム予測アプリケーションにおいて,6gセキュリティのための逆学習緩和手法の性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6G is the next generation for the communication systems. In recent years,
machine learning algorithms have been applied widely in various fields such as
health, transportation, and the autonomous car. The predictive algorithms will
be used in 6G problems. With the rapid developments of deep learning
techniques, it is critical to take the security concern into account to apply
the algorithms. While machine learning offers significant advantages for 6G, AI
models' security is ignored. Since it has many applications in the real world,
security is a vital part of the algorithms. This paper has proposed a
mitigation method for adversarial attacks against proposed 6G machine learning
models for the millimeter-wave (mmWave) beam prediction with adversarial
learning. The main idea behind adversarial attacks against machine learning
models is to produce faulty results by manipulating trained deep learning
models for 6G applications for mmWave beam prediction use case. We have also
presented the adversarial learning mitigation method's performance for 6G
security in millimeter-wave beam prediction application with fast gradient sign
method attack. The mean square errors of the defended model and undefended
model are very close.
- Abstract(参考訳): 6Gは次世代の通信システムである。
近年、機械学習アルゴリズムは、健康、交通、自動運転車など、さまざまな分野で広く適用されています。
予測アルゴリズムは6G問題で使用されます。
深層学習技術の急速な発展に伴い,セキュリティ上の懸念を考慮に入れてアルゴリズムを適用することが重要である。
機械学習は6Gに大きな利点をもたらすが、AIモデルのセキュリティは無視される。
現実世界には多くのアプリケーションがあるので、セキュリティはアルゴリズムの重要な部分です。
本稿では,ミリ波(mmwave)ビーム予測のための6g機械学習モデルに対する,逆学習による逆攻撃の軽減法を提案する。
機械学習モデルに対する敵対的な攻撃の背後にある主なアイデアは、mmWaveビーム予測ユースケース用の6Gアプリケーション用の訓練されたディープラーニングモデルを操作することによって、欠陥のある結果を生成することです。
また,高速な勾配符号法攻撃を伴うミリ波ビーム予測アプリケーションにおいて,6gセキュリティのための逆学習緩和法の性能を示す。
防御モデルと無防御モデルの平均二乗誤差は非常に近いです。
関連論文リスト
- Unlearn and Burn: Adversarial Machine Unlearning Requests Destroy Model Accuracy [65.80757820884476]
未学習システムのデプロイにおいて、重要で未調査の脆弱性を公開しています。
本稿では,訓練セットに存在しないデータに対して,逆学習要求を送信することにより,攻撃者がモデル精度を劣化させることができる脅威モデルを提案する。
我々は、未学習要求の正当性を検出するための様々な検証メカニズムを評価し、検証の課題を明らかにする。
論文 参考訳(メタデータ) (2024-10-12T16:47:04Z) - Challenging Machine Learning Algorithms in Predicting Vulnerable JavaScript Functions [2.243674903279612]
最先端の機械学習技術は、JavaScriptプログラムのセキュリティ脆弱性のある関数を予測することができる。
最高性能のアルゴリズムはKNNで、F値0.76の脆弱性関数の予測モデルを作成している。
深層学習,木と林の分類,SVMは0.70以上のF尺度と競合した。
論文 参考訳(メタデータ) (2024-05-12T08:23:42Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - A Tutorial on Adversarial Learning Attacks and Countermeasures [0.0]
機械学習モデルは、それを明示的にプログラムすることなく、高精度な予測を行うことができる。
敵の学習攻撃は 深刻なセキュリティの脅威を 引き起こす
本稿では、敵対的学習の原理を詳細に解説し、異なる攻撃シナリオを説明し、この脅威に対する最先端の防御機構について深い洞察を与える。
論文 参考訳(メタデータ) (2022-02-21T17:14:45Z) - Security Concerns on Machine Learning Solutions for 6G Networks in
mmWave Beam Prediction [0.0]
人工知能(AI)モデルのセキュリティ上の懸念は通常、科学コミュニティによって無視されます。
本稿では,提案する6G機械学習モデルに対する敵攻撃の軽減手法を提案する。
また,mmWaveビーム予測アプリケーションにおける6Gセキュリティのための逆学習緩和手法の性能について述べる。
論文 参考訳(メタデータ) (2021-05-09T10:38:53Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models [0.0]
我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
論文 参考訳(メタデータ) (2020-10-17T17:18:17Z) - Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds [62.013872787987054]
6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
論文 参考訳(メタデータ) (2020-10-02T07:42:00Z) - A Tutorial on Ultra-Reliable and Low-Latency Communications in 6G:
Integrating Domain Knowledge into Deep Learning [115.75967665222635]
超信頼性・低レイテンシ通信(URLLC)は、様々な新しいミッションクリティカルなアプリケーションの開発の中心となる。
ディープラーニングアルゴリズムは、将来の6GネットワークでURLLCを実現する技術を開発するための有望な方法と考えられている。
このチュートリアルでは、URLLCのさまざまなディープラーニングアルゴリズムにドメイン知識を組み込む方法について説明する。
論文 参考訳(メタデータ) (2020-09-13T14:53:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。