論文の概要: A Grid Based Adversarial Clustering Algorithm
- arxiv url: http://arxiv.org/abs/1804.04780v2
- Date: Thu, 21 Nov 2024 21:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-08 08:47:15.950078
- Title: A Grid Based Adversarial Clustering Algorithm
- Title(参考訳): グリッドに基づく逆クラスタリングアルゴリズム
- Authors: Wutao Wei, Nikhil Gupta, Bowei Xi,
- Abstract要約: サイバーセキュリティアプリケーションでは、データ分析技術は、データ分析モデルを欺いて検出されるのを避けるために、アクティブな敵に対処する必要がある。
本アルゴリズムは,ゲーム理論の考え方を用いて,通常の領域のコアを同定し,通常の物体の中心の周囲に防御壁を描画する。
- 参考スコア(独自算出の注目度): 1.948329336863576
- License:
- Abstract: Nowadays more and more data are gathered for detecting and preventing cyber attacks. In cyber security applications, data analytics techniques have to deal with active adversaries that try to deceive the data analytics models and avoid being detected. The existence of such adversarial behavior motivates the development of robust and resilient adversarial learning techniques for various tasks. Most of the previous work focused on adversarial classification techniques, which assumed the existence of a reasonably large amount of carefully labeled data instances. However, in practice, labeling the data instances often requires costly and time-consuming human expertise and becomes a significant bottleneck. Meanwhile, a large number of unlabeled instances can also be used to understand the adversaries' behavior. To address the above mentioned challenges, in this paper, we develop a novel grid based adversarial clustering algorithm. Our adversarial clustering algorithm is able to identify the core normal regions, and to draw defensive walls around the centers of the normal objects utilizing game theoretic ideas. Our algorithm also identifies sub-clusters of attack objects, the overlapping areas within clusters, and outliers which may be potential anomalies.
- Abstract(参考訳): 今日では、サイバー攻撃の検出と防止のために、ますます多くのデータが収集されている。
サイバーセキュリティアプリケーションでは、データ分析技術は、データ分析モデルを欺いて検出されるのを避けるために、アクティブな敵に対処する必要がある。
このような敵対行動の存在は、様々なタスクに対する堅牢でレジリエントな対人学習技術の発達を動機付けている。
これまでの研究のほとんどは、大量の慎重にラベル付けされたデータインスタンスの存在を前提とした、敵の分類技術に焦点を当てていた。
しかし、実際には、データインスタンスのラベル付けにはコストと時間を要することが多く、重大なボトルネックとなる。
一方、多くのラベルのないインスタンスは、敵の振る舞いを理解するためにも使用できる。
本稿では,上記の課題に対処するため,新しいグリッド型対向クラスタリングアルゴリズムを開発した。
我々の対向クラスタリングアルゴリズムは、コア正規領域を特定し、ゲーム理論のアイデアを利用して、通常の物体の中心の周りに防御壁を描くことができる。
また,攻撃対象のサブクラスタ,クラスタ内の重なり合う領域,および潜在的な異常となる可能性のある外れ値も同定する。
関連論文リスト
- The importance of the clustering model to detect new types of intrusion in data traffic [0.0]
提案手法では,クラスタリング手法としてK-meansアルゴリズムを用いる。
データはKali Linux環境、cicflowmeterトラフィック、Putty Softwareツールを利用して収集された。
モデルは攻撃を数え、それぞれに番号を割り当てた。
論文 参考訳(メタデータ) (2024-11-21T19:40:31Z) - Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Fairness Degrading Adversarial Attacks Against Clustering Algorithms [35.40427659749882]
そこで本研究では,k-medianクラスタリングのためのフェアネス劣化攻撃アルゴリズムを提案する。
生成した対数サンプルの追加により、フェアネス値が大幅に低下することが判明した。
論文 参考訳(メタデータ) (2021-10-22T19:10:27Z) - Modelling Adversarial Noise for Adversarial Defense [96.56200586800219]
敵の防御は、通常、敵の音を除去したり、敵の頑強な目標モデルを訓練するために、敵の例を活用することに焦点を当てる。
逆データと自然データの関係は、逆データからクリーンデータを推測し、最終的な正しい予測を得るのに役立ちます。
本研究では, ラベル空間の遷移関係を学習するために, 逆方向の雑音をモデル化し, 逆方向の精度を向上させることを目的とした。
論文 参考訳(メタデータ) (2021-09-21T01:13:26Z) - Demotivate adversarial defense in remote sensing [0.0]
本研究は,この目的に対する対人防御として,対人訓練と対人正規化について検討する。
対角的堅牢性は地理的および過度に適合するロバスト性とは無関係と思われる公共のリモートセンシングデータセットについていくつかの実験を行った。
論文 参考訳(メタデータ) (2021-05-28T15:04:37Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。