論文の概要: Automatic Adjustment of HPA Parameters and Attack Prevention in Kubernetes Using Random Forests
- arxiv url: http://arxiv.org/abs/2601.13515v1
- Date: Tue, 20 Jan 2026 02:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.116034
- Title: Automatic Adjustment of HPA Parameters and Attack Prevention in Kubernetes Using Random Forests
- Title(参考訳): ランダムフォレストを用いたKubernetesにおけるHPAパラメータの自動調整と攻撃防止
- Authors: Hanlin Zhou, Huah Yong Chan, Jingfei Ni, Mengchun Wu, Qing Deng,
- Abstract要約: 本稿では,実験シナリオとしてHTTPステータスコードをHPA内のカスタムメトリクスとして使用する。
機械学習からランダムフォレスト分類アルゴリズムを統合することにより、攻撃を評価し予測する。
このアプローチは、ターゲットとする攻撃シナリオにおける機械学習スクリプトを使用したHPAパラメータの調整を可能にする。
- 参考スコア(独自算出の注目度): 1.8439367433740272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, HTTP status codes are used as custom metrics within the HPA as the experimental scenario. By integrating the Random Forest classification algorithm from machine learning, attacks are assessed and predicted, dynamically adjusting the maximum pod parameter in the HPA to manage attack traffic. This approach enables the adjustment of HPA parameters using machine learning scripts in targeted attack scenarios while effectively managing attack traffic. All access from attacking IPs is redirected to honeypot pods, achieving a lower incidence of 5XX status codes through HPA pod adjustments under high load conditions. This method also ensures effective isolation of attack traffic, preventing excessive HPA expansion due to attacks. Additionally, experiments conducted under various conditions demonstrate the importance of setting appropriate thresholds for HPA adjustments.
- Abstract(参考訳): 本稿では,実験シナリオとしてHTTPステータスコードをHPA内のカスタムメトリクスとして使用する。
機械学習からランダムフォレスト分類アルゴリズムを統合することで、攻撃を評価し予測し、攻撃トラフィックを管理するためにHPAの最大ポッドパラメータを動的に調整する。
このアプローチは、攻撃トラフィックを効果的に管理しながら、ターゲットとする攻撃シナリオにおける機械学習スクリプトを使用したHPAパラメータの調整を可能にする。
攻撃するIPからのすべてのアクセスはハニーポットポッドにリダイレクトされ、高い負荷条件下でのHPAポッド調整による5XXステータスコードの発生率を低くする。
この手法はまた、攻撃トラフィックを効果的に隔離し、攻撃による過度のHPA拡大を防ぐ。
さらに, 各種条件下で行った実験は, HPA調整に適切なしきい値を設定することの重要性を示した。
関連論文リスト
- Iterated Population Based Training with Task-Agnostic Restarts [43.67838251017198]
我々は,このHPを再起動によって自動的に調整する新しいPBT変異体であるIterated Population Based Training (IPBT)を導入する。
8つの画像分類および強化学習タスクの評価により,我々のアルゴリズムは,5つの従来のPBTの変種と一致または相乗効果を示した。
論文 参考訳(メタデータ) (2025-11-12T10:37:34Z) - Improving Black-Box Generative Attacks via Generator Semantic Consistency [51.470649503929344]
ジェネレーティブアタックは テスト時に 1つのフォワードパスで 敵の例を生成する
初期ジェネレータの中間機能をEMA教師に整列させることで意味的整合性を実現する。
我々のアプローチは、ブラックボックス転送の一貫性を保ちながら、既存のジェネレーティブアタックにシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-06-23T02:35:09Z) - Defending against Indirect Prompt Injection by Instruction Detection [109.30156975159561]
InstructDetectorは、LLMの動作状態を利用して潜在的なIPI攻撃を特定する、新しい検出ベースのアプローチである。
InstructDetectorは、ドメイン内設定で99.60%、ドメイン外設定で96.90%の検出精度を達成し、攻撃成功率をBIPIAベンチマークで0.03%に下げる。
論文 参考訳(メタデータ) (2025-05-08T13:04:45Z) - The Effect of Hop-count Modification Attack on Random Walk-based SLP Schemes Developed forWSNs: a Study [0.0]
我々は,アクティブアタックとパッシブアタックの両方からなる新しいハイブリッドアタックモデルを提案することによって,アクティブアタックの影響を理解することを試みる。
プライバシ指標のアルゴリズムの性能は、純粋な受動的攻撃や様々な強度のハイブリッド攻撃の場合と比較される。
論文 参考訳(メタデータ) (2025-02-28T10:01:01Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Regularization Can Help Mitigate Poisoning Attacks... with the Right
Hyperparameters [1.8570591025615453]
機械学習アルゴリズムは、トレーニングデータの一部を操作してアルゴリズムのパフォーマンスを低下させる、中毒攻撃に対して脆弱である。
通常、正規化ハイパーパラメータが一定であると仮定する現在のアプローチは、アルゴリズムの堅牢性に対する過度に悲観的な見方をもたらすことを示す。
本稿では,攻撃が過度パラメータに与える影響を考慮し,エフェミニマックスの双レベル最適化問題としてモデル化した新たな最適攻撃定式化を提案する。
論文 参考訳(メタデータ) (2021-05-23T14:34:47Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Regularisation Can Mitigate Poisoning Attacks: A Novel Analysis Based on
Multiobjective Bilevel Optimisation [3.3181276611945263]
機械学習(ML)アルゴリズムは、アルゴリズムのパフォーマンスを意図的に劣化させるためにトレーニングデータの一部が操作される、中毒攻撃に対して脆弱である。
2レベル問題として定式化できる最適毒殺攻撃は、最悪のシナリオにおける学習アルゴリズムの堅牢性を評価するのに役立つ。
このアプローチはアルゴリズムの堅牢性に対する過度に悲観的な見方をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-28T19:46:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。