論文の概要: MongoDB Injection Query Classification Model using MongoDB Log files as Training Data
- arxiv url: http://arxiv.org/abs/2601.11996v1
- Date: Sat, 17 Jan 2026 10:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.410317
- Title: MongoDB Injection Query Classification Model using MongoDB Log files as Training Data
- Title(参考訳): MongoDBログファイルをトレーニングデータとして使用したMongoDBインジェクションクエリ分類モデル
- Authors: Shaunak Perni, Minal Shirodkar, Ramdas Karmalli,
- Abstract要約: インジェクションアタック(インジェクションアタック)とは、攻撃者が特定のエンジニアリングされたクエリをデータベースに送信し、無許可の操作を実行するサイバーセキュリティアタックの一種である。
このような攻撃から守るために、当初はルールベースのシステムが開発されたが、その後は効果が無かったことが判明した。
ほとんどのモデルベース検出システムは、テスト中に指数関数的にポジティブな結果を得たが、サーバに送信されたクエリステートメントに基づいてトレーニングされた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: NoSQL Injection attacks are a class of cybersecurity attacks where an attacker sends a specifically engineered query to a NoSQL database which then performs an unauthorized operation. To defend against such attacks, rule based systems were initially developed but then were found to be ineffective to innovative injection attacks hence a model based approach was developed. Most model based detection systems, during testing gave exponentially positive results but were trained only on the query statement sent to the server. However due to the scarcity of data and class imbalances these model based systems were found to be not effective against all attacks in the real world. This paper explores classifying NoSQL injection attacks sent to a MongoDB server based on Log Data, and other extracted features excluding raw query statements. The log data was collected from a simulated attack on an empty MongoDB server which was then processed and explored. A discriminant analysis was carried out to determine statistically significant features to discriminate between injection and benign queries resulting in a dataset of significant features. Several Machine learning based classification models using an AutoML library, "FLAML", as well as 6 manually programmed models were trained on this dataset , which were then trained on 50 randomized samples of data, cross validated and evaluated. The study found that the best model was the "FLAML" library's "XGBoost limited depth" model with an accuracy of 71%.
- Abstract(参考訳): NoSQLインジェクション攻撃(NoSQL Injection attack)は、攻撃者が特定のエンジニアリングされたクエリをNoSQLデータベースに送信し、不正な操作を実行するサイバーセキュリティ攻撃の一種である。
このような攻撃に対抗するために、当初はルールベースシステムが開発されたが、革新的なインジェクション攻撃には効果がないことが判明し、モデルベースアプローチが開発された。
ほとんどのモデルベース検出システムは、テスト中に指数関数的にポジティブな結果を得たが、サーバに送信されたクエリステートメントに基づいてトレーニングされた。
しかし、データ不足とクラス不均衡のため、これらのモデルベースのシステムは現実世界の全ての攻撃に対して効果がないことが判明した。
本稿では、ログデータに基づいてMongoDBサーバに送信されるNoSQLインジェクション攻撃の分類と、生のクエリステートメントを除いた他の抽出機能について検討する。
ログデータは、空のMongoDBサーバに対するシミュレートされた攻撃から収集され、処理と探索が行われた。
差分分析を行い, 統計的に有意な特徴を判定し, 重要な特徴のデータセットが得られた。
AutoMLライブラリ"FLAML"を使用した機械学習ベースの分類モデルと、6つの手動でプログラムされたモデルがこのデータセットでトレーニングされ、50のランダム化されたデータサンプルに基づいてトレーニングされ、クロス検証と評価が行われた。
研究によると、最良のモデルは「FLAML」ライブラリの「XGBoost限定深度」モデルであり、精度は71%である。
関連論文リスト
- A Comprehensive Study of Supervised Machine Learning Models for Zero-Day Attack Detection: Analyzing Performance on Imbalanced Data [0.0]
この研究は、高度に不均衡なデータセットを適用し、テストフェーズ中に分類器をゼロデイアタックにのみ公開する。
以上の結果から,ランダムフォレスト (RF) はオーバーサンプリングと非オーバーサンプリングの両条件で最適であることがわかった。
XG Boost(XGB)は、ゼロデイ攻撃を検出する高速で高精度な性能のため、トップモデルである。
論文 参考訳(メタデータ) (2025-12-07T22:42:37Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Model Stealing Attack against Recommender System [85.1927483219819]
いくつかの敵攻撃は、レコメンデーターシステムに対するモデル盗難攻撃を成し遂げた。
本稿では、利用可能なターゲットデータとクエリの量を制限し、対象データとセットされたアイテムを共有する補助データを活用して、モデル盗難攻撃を促進する。
論文 参考訳(メタデータ) (2023-12-18T05:28:02Z) - MeaeQ: Mount Model Extraction Attacks with Efficient Queries [6.1106195466129485]
自然言語処理(NLP)におけるモデル抽出攻撃の研究
これらの問題に対処する単純で効果的な方法であるMeaeQを提案する。
MeaeQは、クエリを少なくしながら、ベースラインよりも犠牲者モデルに高い機能的類似性を実現する。
論文 参考訳(メタデータ) (2023-10-21T16:07:16Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Label-only Model Inversion Attack: The Attack that Requires the Least
Information [14.061083728194378]
モデル反転攻撃では、敵はモデル出力のみを使用してターゲットモデルをトレーニングするために使用されるデータレコードを再構築しようと試みる。
出力ラベルのみに基づいて入力データレコードを再構成できるモデル逆変換法が発見された。
論文 参考訳(メタデータ) (2022-03-13T03:03:49Z) - Simulating Unknown Target Models for Query-Efficient Black-box Attacks [21.21690695534498]
ディープニューラルネットワークの セキュリティ問題を調べるために 敵の攻撃が提案されている
ブラックボックス設定では、現在のモデル盗難攻撃は、ターゲットモデルの機能を偽装するために代替モデルを訓練する。
本研究の目的は、未知のターゲットモデルの機能を模倣できる「シミュレータ」と呼ばれる一般化された代替モデルを訓練することである。
論文 参考訳(メタデータ) (2020-09-02T11:30:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。