論文の概要: Classification of Industrial Control Systems screenshots using Transfer
Learning
- arxiv url: http://arxiv.org/abs/2005.10098v3
- Date: Fri, 11 Sep 2020 10:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 05:39:37.077169
- Title: Classification of Industrial Control Systems screenshots using Transfer
Learning
- Title(参考訳): 転写学習を用いた産業制御システムスクリーンショットの分類
- Authors: Pablo Blanco Medina, Eduardo Fidalgo Fernandez, Enrique Alegre,
Francisco J\'a\~nez Martino, Roberto A. Vasco-Carofilis and V\'ictor Fidalgo
Villar
- Abstract要約: MobilenetV1は97,95%のF1スコアに基づいており、CPU上での速度は0.47秒である。
VGG16は画像処理に0.04秒かかるが、性能は87,67%に低下する。
- 参考スコア(独自算出の注目度): 1.4546816913520362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial Control Systems depend heavily on security and monitoring
protocols. Several tools are available for this purpose, which scout
vulnerabilities and take screenshots from various control panels for later
analysis. However, they do not adequately classify images into specific control
groups, which can difficult operations performed by manual operators. In order
to solve this problem, we use transfer learning with five CNN architectures,
pre-trained on Imagenet, to determine which one best classifies screenshots
obtained from Industrial Controls Systems. Using 337 manually labeled images,
we train these architectures and study their performance both in accuracy and
CPU and GPU time. We find out that MobilenetV1 is the best architecture based
on its 97,95% of F1-Score, and its speed on CPU with 0.47 seconds per image. In
systems where time is critical and GPU is available, VGG16 is preferable
because it takes 0.04 seconds to process images, but dropping performance to
87,67%.
- Abstract(参考訳): 産業制御システムは、セキュリティと監視プロトコルに大きく依存している。
この目的のためにいくつかのツールが利用可能で、脆弱性をスカウトし、さまざまなコントロールパネルからスクリーンショットを取り、後から分析する。
しかし、イメージを特定の制御グループに適切に分類するわけではなく、手動操作による操作が難しい。
この問題を解決するために、imagenetで事前トレーニングされた5つのcnnアーキテクチャによる転送学習を用いて、産業用制御システムから得られたスクリーンショットを分類する最善の方法を決定する。
337のラベル付き画像を使用して、これらのアーキテクチャをトレーニングし、その性能を精度とCPU、GPU時間の両方で研究する。
mobilenetv1は、その97,95%のf1-scoreと1イメージあたり0.47秒のcpuの速度に基づく最高のアーキテクチャであることがわかった。
時間が重要でgpuが利用可能なシステムでは、画像を処理するのに0.04秒かかるが、パフォーマンスは87,67%に低下するため、vgg16が望ましい。
関連論文リスト
- CtrLoRA: An Extensible and Efficient Framework for Controllable Image Generation [69.43106794519193]
本稿では,複数のベース条件からイメージ・ツー・イメージ生成の共通知識を学習するために,ベース制御ネットを訓練するCtrLoRAフレームワークを提案する。
学習可能なパラメータをControlNetと比較して90%削減し,モデルの重み付けとデプロイのしきい値を大幅に下げる。
論文 参考訳(メタデータ) (2024-10-12T07:04:32Z) - LLaVA-UHD: an LMM Perceiving Any Aspect Ratio and High-Resolution Images [119.24323184581974]
LLaVA-UHDは,任意のアスペクト比と高解像度の画像を効率的に知覚できる大規模マルチモーダルモデルである。
総合的な実験の結果、LLaVA-UHDは9つのベンチマークで2~3桁のデータで訓練されたLMMよりも優れていた。
論文 参考訳(メタデータ) (2024-03-18T12:04:11Z) - Self-Supervised Versus Supervised Training for Segmentation of Organoid
Images [2.6242820867975127]
大量の顕微鏡画像データセットがラベル付けされていないままであり、ディープラーニングアルゴリズムによる効果的な利用を妨げている。
自己教師付き学習(SSL)は、ラベルを必要とせずにメインタスクに類似したプリテキストタスクの下で固有の特徴を学習する、有望なソリューションである。
ResNet50 U-Netは、構造化類似度指数(Structure similarity Index Metric, SSIM)だけで、L1損失と組み合わせてSSIMを用いて、肝臓前駆体オルガノイドのイメージを拡張画像から復元する訓練が最初に行われた。
比較のために、同じU-Netアーキテクチャを使って、2つの教師付きモデルをトレーニングしました。
論文 参考訳(メタデータ) (2023-11-19T01:57:55Z) - Exploring shared memory architectures for end-to-end gigapixel deep
learning [8.354020379685924]
100GB以上の統一メモリを用いて,バッチサイズ1のギガピクセル画像のディープラーニングモデルを訓練する。
予想通り、モデルは高いDiceスコア 0.989pm$ 0.005 で収束した。
この研究は、一般的なネットワークアーキテクチャによるWSIのエンド・ツー・エンド・エンド・ラーニングに向けた有望なステップである。
論文 参考訳(メタデータ) (2023-04-24T15:00:42Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Data Efficient Language-supervised Zero-shot Recognition with Optimal
Transport Distillation [43.03533959429743]
本稿では,オンライン最適トランスポートを用いて,コントラスト学習のためのラベルとしてソフトな画像テキストマッチングを求めるOTTERを提案する。
事前訓練された画像とテキストエンコーダに基づいて、OTTERで訓練されたモデルは、3M画像テキストペアだけで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-12-17T11:27:26Z) - Vector-quantized Image Modeling with Improved VQGAN [93.8443646643864]
本稿では,自動回帰的に画像トークンを予測するためにトランスフォーマーを事前訓練するベクトル量子化画像モデリング手法を提案する。
まず,バニラVQGANに対して,アーキテクチャからコードブック学習までの複数の改良を提案する。
ImageNetで256x256解像度でトレーニングすると、175.1のインセプションスコア(IS)と4.17のFrechet Inception Distance(FID)を達成する。
論文 参考訳(メタデータ) (2021-10-09T18:36:00Z) - Evaluating Performance of an Adult Pornography Classifier for Child
Sexual Abuse Detection [2.3886615435250302]
正確さと時間パフォーマンスは、児童性的虐待の検出を指向した法医学ツールによって望まれる特徴である。
本稿では,法医学ツールの性能に影響を及ぼす可能性のあるハードウェア要件とソフトウェア要件について述べる。
論文 参考訳(メタデータ) (2020-05-18T14:32:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。