論文の概要: Adversarial machine learning for protecting against online manipulation
- arxiv url: http://arxiv.org/abs/2111.12034v1
- Date: Tue, 23 Nov 2021 17:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 17:21:30.527207
- Title: Adversarial machine learning for protecting against online manipulation
- Title(参考訳): オンライン操作から保護するadversarial machine learning
- Authors: Stefano Cresci, Marinella Petrocchi, Angelo Spognardi, Stefano
Tognazzi
- Abstract要約: 逆の例は、そのシステムから誤った出力をもたらす機械学習システムへの入力である。
ここでは、より強力な学習モデルを構築するための強力なツールとして、どのように利益を生かすことができるかを概説する。
- 参考スコア(独自算出の注目度): 1.3190581566723918
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial examples are inputs to a machine learning system that result in
an incorrect output from that system. Attacks launched through this type of
input can cause severe consequences: for example, in the field of image
recognition, a stop signal can be misclassified as a speed limit
indication.However, adversarial examples also represent the fuel for a flurry
of research directions in different domains and applications. Here, we give an
overview of how they can be profitably exploited as powerful tools to build
stronger learning models, capable of better-withstanding attacks, for two
crucial tasks: fake news and social bot detection.
- Abstract(参考訳): 逆の例は、そのシステムから誤った出力をもたらす機械学習システムへの入力である。
この種の入力によって起動される攻撃は、例えば画像認識の分野では、停止信号が速度制限の指示として誤分類されることがあるが、敵対的な例は、異なる領域やアプリケーションにおける研究方向の急増の燃料でもある。
ここでは、フェイクニュースとソーシャルボット検出という2つの重要なタスクに対して、より強力な学習モデルを構築するための強力なツールとして、彼らがいかに収益的に活用できるかの概要を示す。
関連論文リスト
- MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Adversarial Learning in Real-World Fraud Detection: Challenges and
Perspectives [1.5373344688357016]
不正行為と敵対的攻撃は機械学習モデルを脅かす。
本稿では,不正検出システムに対する攻撃が,他の機械学習応用とどのように異なるかを述べる。
論文 参考訳(メタデータ) (2023-07-03T23:04:49Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Real-World Adversarial Examples involving Makeup Application [58.731070632586594]
フルフェイスメイクを用いた身体的敵攻撃を提案する。
我々の攻撃は、色や位置関連エラーなどのメークアップアプリケーションにおける手動エラーを効果的に克服できる。
論文 参考訳(メタデータ) (2021-09-04T05:29:28Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Fortify Machine Learning Production Systems: Detect and Classify
Adversarial Attacks [0.0]
本研究では,入ってくる敵の攻撃とその特性を検出する生産保護システムを提案する。
基盤となるモデルは、これらの攻撃から堅牢になるように構造化された方法でトレーニングすることができる。
逆画像分類空間は、転送学習でよく使われるモデルについて検討される。
論文 参考訳(メタデータ) (2021-02-19T00:47:16Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z) - Adversarial Attacks on Machine Learning Cybersecurity Defences in
Industrial Control Systems [2.86989372262348]
本稿では, 教師付きモデルを対象として, 対戦型サンプルを生成することで, 対戦型学習をいかに活用できるかを考察する。
また、このようなサンプルが敵の訓練を用いて教師付きモデルの堅牢性をサポートする方法についても検討している。
その結果,広く使用されている2種類の分類器であるランダムフォレスト(Random Forest)とJ48(J48)の分類性能は,逆に16~20ポイント低下した。
論文 参考訳(メタデータ) (2020-04-10T12:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。