論文の概要: Application of Tabular Transformer Architectures for Operating System Fingerprinting
- arxiv url: http://arxiv.org/abs/2502.09084v1
- Date: Thu, 13 Feb 2025 08:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:48:47.853291
- Title: Application of Tabular Transformer Architectures for Operating System Fingerprinting
- Title(参考訳): オペレーティング・システム・フィンガープリントにおけるタブラル変圧器アーキテクチャの適用
- Authors: Rubén Pérez-Jove, Cristian R. Munteanu, Alejandro Pazos, Jose Vázquez-Naya,
- Abstract要約: 本研究では,TabTransformer と FT-Transformer の OS 指紋認証への応用について検討した。
その結果、DLベースのOSフィンガープリントの強力な基盤を確立し、複雑なネットワーク環境における精度と適応性を改善した。
- 参考スコア(独自算出の注目度): 42.72938925647165
- License:
- Abstract: Operating System (OS) fingerprinting is essential for network management and cybersecurity, enabling accurate device identification based on network traffic analysis. Traditional rule-based tools such as Nmap and p0f face challenges in dynamic environments due to frequent OS updates and obfuscation techniques. While Machine Learning (ML) approaches have been explored, Deep Learning (DL) models, particularly Transformer architectures, remain unexploited in this domain. This study investigates the application of Tabular Transformer architectures-specifically TabTransformer and FT-Transformer-for OS fingerprinting, leveraging structured network data from three publicly available datasets. Our experiments demonstrate that FT-Transformer generally outperforms traditional ML models, previous approaches and TabTransformer across multiple classification levels (OS family, major, and minor versions). The results establish a strong foundation for DL-based OS fingerprinting, improving accuracy and adaptability in complex network environments. Furthermore, we ensure the reproducibility of our research by providing an open-source implementation.
- Abstract(参考訳): オペレーティングシステム(OS)のフィンガープリントはネットワーク管理とサイバーセキュリティに不可欠であり、ネットワークトラフィック分析に基づく正確なデバイス識別を可能にする。
Nmapやp0fといった従来のルールベースのツールは、頻繁なOS更新と難読化技術のために、動的環境において課題に直面している。
機械学習(ML)アプローチが検討されている一方で、ディープラーニング(DL)モデル、特にTransformerアーキテクチャは、この領域では未公開のままである。
本研究では,TabTransformer と FT-Transformer の OS 指紋認証への応用について検討した。
実験の結果、FT-Transformerは従来のMLモデル、従来のアプローチ、TabTransformerを複数の分類レベル(OSファミリー、メジャー、マイナーバージョン)で上回っていることがわかった。
その結果、DLベースのOSフィンガープリントの強力な基盤を確立し、複雑なネットワーク環境における精度と適応性を改善した。
さらに,オープンソース実装を提供することにより,研究の再現性を確保する。
関連論文リスト
- A Survey of Machine Learning-based Physical-Layer Authentication in Wireless Communications [17.707450193500698]
無線環境におけるユニークな特性の活用により,Physical-Layer Authentication (PLA) が有望な補完として浮上している。
本稿では,MLベースのPLAで使用可能な特徴と技術について,包括的に調査する。
論文 参考訳(メタデータ) (2024-11-15T03:01:23Z) - A Survey on Large Language Models from Concept to Implementation [4.219910716090213]
近年のLarge Language Models (LLM) の進歩により、自然言語処理(NLP)アプリケーションの範囲が拡大している。
本稿では,これらのモデルの多面的応用について検討し,GPTシリーズに着目した。
この調査は、コーディングや問題解決といった従来のタスクに革命をもたらす人工知能(AI)駆動ツールの変革的な影響に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-27T19:35:41Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - The Multiscale Surface Vision Transformer [10.833580445244094]
表面深層学習のためのバックボーンアーキテクチャとして,Multiscale Surface Vision Transformer (MS-SiT)を導入した。
以上の結果から,MS-SiTは新生児の表現型予測タスクにおいて,既存の表面深層学習法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-21T15:00:17Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in Transformers [71.32827362323205]
我々はLearner-Transformer (Learners)と呼ばれる線形変換器の新しいクラスを提案する。
様々な相対的位置エンコーディング機構(RPE)を組み込んでいる。
これらには、シーケンシャルデータに適用される正規の RPE 技術や、高次元ユークリッド空間に埋め込まれた幾何学的データを操作する新しい RPE などが含まれる。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - Exploring Transformers for Behavioural Biometrics: A Case Study in Gait
Recognition [0.7874708385247353]
本稿ではトランスフォーマーに基づく新しい歩行生体認証システムについて検討し,提案する。
実験フレームワークでは、最先端アーキテクチャ(Vanilla、Informer、Autoformer、Block-Recurrent Transformer、THAT)が検討されている。
代表的な2つの公開データベースwuGAITとOU-ISIRを用いて実験を行った。
論文 参考訳(メタデータ) (2022-06-03T08:08:40Z) - Multi-Exit Vision Transformer for Dynamic Inference [88.17413955380262]
視覚変換器のバックボーンの動的推論に使用できる早期出口分岐のための7つの異なるアーキテクチャを提案する。
提案したアーキテクチャのそれぞれが,精度と速度のトレードオフにおいて有用であることを示す。
論文 参考訳(メタデータ) (2021-06-29T09:01:13Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。