論文の概要: NSGZero: Efficiently Learning Non-Exploitable Policy in Large-Scale
Network Security Games with Neural Monte Carlo Tree Search
- arxiv url: http://arxiv.org/abs/2201.07224v1
- Date: Mon, 17 Jan 2022 13:27:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 14:02:47.837821
- Title: NSGZero: Efficiently Learning Non-Exploitable Policy in Large-Scale
Network Security Games with Neural Monte Carlo Tree Search
- Title(参考訳): NSGZero: ニューラルネットワークモンテカルロ木探索による大規模ネットワークセキュリティゲームにおける非明示的ポリシの学習
- Authors: Wanqi Xue, Bo An, Chai Kiat Yeo
- Abstract要約: ネットワークの重要なターゲットを確保するためにリソースをどのようにデプロイするかは、Network Security Games(NSG)によってモデル化できる。
近年のディープラーニング(DL)の進歩は、大規模なNSGを扱うための強力なアプローチを提供する。
本稿では,新しいDLベースのNSGZero法を提案する。
- 参考スコア(独自算出の注目度): 25.053709033518814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How resources are deployed to secure critical targets in networks can be
modelled by Network Security Games (NSGs). While recent advances in deep
learning (DL) provide a powerful approach to dealing with large-scale NSGs, DL
methods such as NSG-NFSP suffer from the problem of data inefficiency.
Furthermore, due to centralized control, they cannot scale to scenarios with a
large number of resources. In this paper, we propose a novel DL-based method,
NSGZero, to learn a non-exploitable policy in NSGs. NSGZero improves data
efficiency by performing planning with neural Monte Carlo Tree Search (MCTS).
Our main contributions are threefold. First, we design deep neural networks
(DNNs) to perform neural MCTS in NSGs. Second, we enable neural MCTS with
decentralized control, making NSGZero applicable to NSGs with many resources.
Third, we provide an efficient learning paradigm, to achieve joint training of
the DNNs in NSGZero. Compared to state-of-the-art algorithms, our method
achieves significantly better data efficiency and scalability.
- Abstract(参考訳): ネットワークの重要なターゲットを確保するためにリソースをどのようにデプロイするかは、Network Security Games(NSG)によってモデル化できる。
近年のディープラーニング(DL)の進歩は、大規模なNSGを扱うための強力なアプローチを提供する一方で、NSG-NFSPのようなDL手法は、データ非効率の問題に悩まされている。
さらに、集中管理のため、大量のリソースを持つシナリオにはスケールできない。
本稿では,新しいDLベースのNSGZeroを提案する。
NSGZeroは、ニューラルモンテカルロツリーサーチ(MCTS)で計画を実行することで、データ効率を改善する。
私たちの主な貢献は3倍です。
まず,深層ニューラルネットワーク(dnn)の設計を行い,nsgsでニューラルネットワークを行う。
次に、分散制御によるニューラルMCTSを実現し、NSGZeroを多くのリソースを持つNSGに適用する。
第3に,NSGZeroにおけるDNNの協調訓練を実現するための,効率的な学習パラダイムを提供する。
最先端のアルゴリズムと比較して,本手法はデータ効率とスケーラビリティを著しく向上させる。
関連論文リスト
- Stochastic Spiking Neural Networks with First-to-Spike Coding [7.955633422160267]
スパイキングニューラルネットワーク (SNN) は、その生物の楽観性とエネルギー効率で知られている。
本研究では,SNNアーキテクチャにおける新しい計算手法と情報符号化方式の融合について検討する。
提案手法のトレードオフを,精度,推論遅延,スパイク空間性,エネルギー消費,データセットの観点から検討する。
論文 参考訳(メタデータ) (2024-04-26T22:52:23Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Solving Large-Scale Extensive-Form Network Security Games via Neural
Fictitious Self-Play [35.585338294158554]
NFSP(Neural Fictitious Self-Play)に基づく大規模広義NSGの学習パラダイムNSG-NFSPを提案する。
我々のアルゴリズムは、スケーラビリティとソリューション品質の両方において最先端のアルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-06-02T02:22:52Z) - Selfish Sparse RNN Training [13.165729746380816]
本稿では,1回のランでパラメータ数を固定したスパースRNNを,性能を損なうことなく訓練する手法を提案する。
我々はPenn TreeBankとWikitext-2の様々なデータセットを用いて最先端のスパーストレーニング結果を得る。
論文 参考訳(メタデータ) (2021-01-22T10:45:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding [26.654533157221973]
本稿では,カーネルベースの動的しきい値とデンドライトを用いて,深層SNNにタイム・ツー・ファースト・スパイク・コーディングを組み込むことによって,その欠点を克服する手法を提案する。
提案手法は,バースト符号化法と比較して,推定遅延とスパイク回数を22%,1%以下に削減できる。
論文 参考訳(メタデータ) (2020-03-26T04:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。