論文の概要: Optimally Blending Honeypots into Production Networks: Hardness and Algorithms
- arxiv url: http://arxiv.org/abs/2401.06763v1
- Date: Fri, 12 Jan 2024 18:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 12:37:32.940809
- Title: Optimally Blending Honeypots into Production Networks: Hardness and Algorithms
- Title(参考訳): ハニーポットを生産ネットワークに最適に曲げる:硬さとアルゴリズム
- Authors: Md Mahabub Uz Zaman, Liangde Tao, Mark Maldonado, Chang Liu, Ahmed Sunny, Shouhuai Xu, Lin Chen,
- Abstract要約: ハニーポットは攻撃者の新たな攻撃を暴露する重要なサイバー防御技術である。
本稿では,ハニーポットの展開という新たなパラダイムのサイバーセキュリティ効果を特徴付けるための系統的研究を開始する。
- 参考スコア(独自算出の注目度): 11.847370655794608
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Honeypot is an important cyber defense technique that can expose attackers new attacks. However, the effectiveness of honeypots has not been systematically investigated, beyond the rule of thumb that their effectiveness depends on how they are deployed. In this paper, we initiate a systematic study on characterizing the cybersecurity effectiveness of a new paradigm of deploying honeypots: blending honeypot computers (or IP addresses) into production computers. This leads to the following Honeypot Deployment (HD) problem, How should the defender blend honeypot computers into production computers to maximize the utility in forcing attackers to expose their new attacks while minimizing the loss to the defender in terms of the digital assets stored in the compromised production computers? We formalize HD as a combinatorial optimization problem, prove its NP hardness, provide a near optimal algorithm (i.e., polynomial time approximation scheme). We also conduct simulations to show the impact of attacker capabilities.
- Abstract(参考訳): ハニーポットは攻撃者の新たな攻撃を暴露する重要なサイバー防御技術である。
しかし、ハニポットの有効性は、親指の規則を超えて、どのように展開されるかによって、体系的に研究されていない。
本稿では,ハニーポットコンピュータ(またはIPアドレス)を生産用コンピュータに混在させるという,ハニーポットの新たな展開パラダイムのサイバーセキュリティ効果を特徴付けるための系統的研究を開始する。
ハニーポット展開(HD)問題に繋がる: ミツバチがハニーポットコンピュータを本番コンピュータに混入して、攻撃者に新たな攻撃を強制し、妥協された生産コンピュータに格納されているデジタル資産の損失を最小限に抑えながら、その有用性を最大化するにはどうすればよいか?
組合せ最適化問題としてHDを形式化し、NP硬さを証明し、近似アルゴリズム(多項式時間近似スキーム)を提供する。
また、攻撃能力への影響を示すシミュレーションも実施する。
関連論文リスト
- LLM Honeypot: Leveraging Large Language Models as Advanced Interactive Honeypot Systems [0.0]
ハニーポット(Honeypot)は、攻撃者を誘惑し、相互作用させるように設計されたデコイシステムである。
我々は,大規模言語モデルを用いて,現実的でインタラクティブなハニーポットシステムを構築するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-12T17:33:06Z) - Efficient Defense Against Model Stealing Attacks on Convolutional Neural
Networks [0.548924822963045]
モデル盗難攻撃は知的財産の盗難や他のセキュリティやプライバシーのリスクにつながる可能性がある。
モデル盗難攻撃に対する現在の最先端の防御は、予測確率に摂動を加えることを示唆している。
我々は、シンプルで効果的で効率的な防衛代替案を提案する。
論文 参考訳(メタデータ) (2023-09-04T22:25:49Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Honeypot Implementation in a Cloud Environment [0.0]
この論文は、HeiCLOUDの悪意ある活動を調べるために、ハニーポットソリューションを提示している。
ハイデルベルク大学の制限されたネットワークゾーンで攻撃者を検出するために、ファイアウォールの漏れを検出する新しい概念が生み出される。
仲介インスタンスとして動作するカスタマイズされたOpenSSHサーバが提供される。
論文 参考訳(メタデータ) (2023-01-02T15:02:54Z) - HoneyModels: Machine Learning Honeypots [2.0499240875882]
ミツバチにインスパイアされた別のアプローチで敵を検知する。
我々のアプローチは、学習したモデルに埋め込みの透かしを与えます。
We show that HoneyModels can reveal 69.5%の敵がニューラルネットワークを攻撃しようとしている。
論文 参考訳(メタデータ) (2022-02-21T15:33:17Z) - HoneyCar: A Framework to Configure HoneypotVulnerabilities on the
Internet of Vehicles [5.248912296890883]
Internet of Vehicles(IoV)は社会経済的利益を約束しているが、新たなサイバー物理学的脅威をもたらす。
車両攻撃者のデータは、ハニーポットのようなシステムを使って、サイバー脅威情報を通じて現実的に収集することができる。
ハニーカー(HoneyCar)は、ハニーポット詐欺の新しい意思決定支援フレームワークである。
論文 参考訳(メタデータ) (2021-11-03T17:31:56Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。