論文の概要: rCamInspector: Building Reliability and Trust on IoT (Spy) Camera Detection using XAI
- arxiv url: http://arxiv.org/abs/2509.09989v1
- Date: Fri, 12 Sep 2025 06:13:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.990005
- Title: rCamInspector: Building Reliability and Trust on IoT (Spy) Camera Detection using XAI
- Title(参考訳): rCamInspector: XAIを用いたIoT(Spy)カメラ検出の信頼性と信頼性の構築
- Authors: Priyanka Rushikesh Chaudhary, Manan Gupta, Jabez Christopher, Putrevu Venkata Sai Charan, Rajib Ranjan Maiti,
- Abstract要約: 我々は、モデル出力に信頼性のある説明を提供するために、説明可能なAI(XAI)を利用するrCamInspectorと呼ばれるシステムを開発した。
rCamInspectorは既存のシステムよりも精度(99%)、精度(99%)、偽陰性率(0.7%)が高いことを示す。
- 参考スコア(独自算出の注目度): 3.0806326501980066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The classification of network traffic using machine learning (ML) models is one of the primary mechanisms to address the security issues in IoT networks and/or IoT devices. However, the ML models often act as black-boxes that create a roadblock to take critical decision based on the model output. To address this problem, we design and develop a system, called rCamInspector, that employs Explainable AI (XAI) to provide reliable and trustworthy explanations to model output. rCamInspector adopts two classifiers, Flow Classifier - categorizes a flow into one of four classes, IoTCam, Conf, Share and Others, and SmartCam Classifier - classifies an IoTCam flow into one of six classes, Netatmo, Spy Clock, Canary, D3D, Ezviz, V380 Spy Bulb; both are IP address and transport port agnostic. rCamInspector is evaluated using 38GB of network traffic and our results show that XGB achieves the highest accuracy of 92% and 99% in the Flow and SmartCam classifiers respectively among eight supervised ML models. We analytically show that the traditional mutual information (MI) based feature importance cannot provide enough reliability on the model output of XGB in either classifiers. Using SHAP and LIME, we show that a separate set of features can be picked up to explain a correct prediction of XGB. For example, the feature Init Bwd Win Byts turns out to have the highest SHAP values to support the correct prediction of both IoTCam in Flow Classifier and Netatmo class in SmartCam Classifier. To evaluate the faithfulness of the explainers on our dataset, we show that both SHAP and LIME have a consistency of more than 0.7 and a sufficiency of 1.0. Comparing with existing works, we show that rCamInspector achieves a better accuracy (99%), precision (99%), and false negative rate (0.7%).
- Abstract(参考訳): 機械学習(ML)モデルを用いたネットワークトラフィックの分類は、IoTネットワークやIoTデバイスのセキュリティ問題に対処するための主要なメカニズムの1つである。
しかし、MLモデルは、しばしばブラックボックスとして機能し、モデル出力に基づいて決定を下すためにブロックを作成する。
この問題に対処するために, Explainable AI(XAI)を用いたrCamInspectorと呼ばれるシステムの設計と開発を行った。
フロー分類器 - フローを4つのクラスのうちの1つ、IoTCam, Conf, Share and Others、SmartCam分類器 - IoTCamフローをNetatmo, Spy Clock, Canary, D3D, Ezviz, V380 Spy Bulbの6つのクラスのいずれかに分類する。
rCamInspectorは38GBのネットワークトラフィックを用いて評価され、XGBは8つの教師付きMLモデルのうち、フローおよびスマートカメラ分類器の92%と99%の精度で達成されている。
我々は,従来の相互情報(MI)に基づく特徴量の重要性が,いずれの分類器においてもXGBのモデル出力に十分な信頼性を与えることができないことを解析的に示す。
SHAP と LIME を用いて,XGB の正確な予測を説明するために,機能セットを別々に選択できることを示す。
例えば、Init Bwd Win Byts機能は、Flow ClassifierのIoTCamとSmartCam ClassifierのNetatmoクラスの正しい予測をサポートするために、SHAP値が最も高いことが判明した。
本データセットにおける説明者の忠実度を評価するため,SHAPとLIMEはともに0.7以上,有効性1.0。
既存の研究と比較すると,rCamInspectorの精度は99%,精度は99%,偽陰性率は0.7%であった。
関連論文リスト
- Flow-Based Detection and Identification of Zero-Day IoT Cameras [1.5970777144214099]
zCamInspectorは、99%の精度でIoTカメラを特定し、偽陰性は0.3%と低い。
XGBは、99%の精度と偽陰性でIoTカメラを0.3%と認識し、最先端の手法より優れている。
論文 参考訳(メタデータ) (2025-09-10T10:50:14Z) - Deep Modeling and Optimization of Medical Image Classification [5.195343321287341]
4つのCNNと8つのViTを画像エンコーダとして用いた新しいCLIP変異体を導入し,脳がんと皮膚がんの分類を行った。
従来の機械学習(ML)手法を用いて、未確認領域データにおける深層モデルの一般化能力を向上する。
論文 参考訳(メタデータ) (2025-05-29T03:27:51Z) - Joint Spatial-Temporal and Appearance Modeling with Transformer for
Multiple Object Tracking [59.79252390626194]
本稿ではTransSTAMという新しい手法を提案する。Transformerを利用して各オブジェクトの外観特徴とオブジェクト間の空間的時間的関係の両方をモデル化する。
提案手法はMOT16, MOT17, MOT20を含む複数の公開ベンチマークで評価され, IDF1とHOTAの両方で明確な性能向上を実現している。
論文 参考訳(メタデータ) (2022-05-31T01:19:18Z) - AutoAlign: Pixel-Instance Feature Aggregation for Multi-Modal 3D Object
Detection [46.03951171790736]
3Dオブジェクト検出のための自動機能融合戦略であるtextitAutoAlignを提案する。
提案手法は,KITTIデータセットとnuScenesデータセットの2.3mAPと7.0mAPの改善につながることを示す。
論文 参考訳(メタデータ) (2022-01-17T16:08:57Z) - Utilizing XAI technique to improve autoencoder based model for computer
network anomaly detection with shapley additive explanation(SHAP) [0.0]
機械学習(ML)とディープラーニング(DL)メソッドは、特にコンピュータネットワークセキュリティにおいて急速に採用されている。
MLとDLベースのモデルの透明性の欠如は、実装の大きな障害であり、ブラックボックスの性質から批判されている。
XAIは、これらのモデルの信頼性を向上させる上で、説明やアウトプットの解釈を通じて有望な分野である。
論文 参考訳(メタデータ) (2021-12-14T09:42:04Z) - Learning Tracking Representations via Dual-Branch Fully Transformer
Networks [82.21771581817937]
追従のためのトランスフォーマーのみをベースとした,シームズ型デュアルブランチネットワークを提案する。
注目ウィンドウ内の他のパッチとのマッチング結果に基づいて,各パッチの特徴ベクトルを抽出する。
この手法は、最高の性能の方法として、より良い結果または同等の結果を得る。
論文 参考訳(メタデータ) (2021-12-05T13:44:33Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - Do Adversarially Robust ImageNet Models Transfer Better? [102.09335596483695]
逆向きに堅牢なモデルは、トランスファーラーニングに使用する場合、標準訓練されたモデルよりもよく機能する。
私たちの結果は、ロバストさが機能表現の改善につながるという最近の仮説と一致しています。
論文 参考訳(メタデータ) (2020-07-16T17:42:40Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。