論文の概要: Visualization Of Class Activation Maps To Explain AI Classification Of
Network Packet Captures
- arxiv url: http://arxiv.org/abs/2209.02045v1
- Date: Mon, 5 Sep 2022 16:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:44:48.686408
- Title: Visualization Of Class Activation Maps To Explain AI Classification Of
Network Packet Captures
- Title(参考訳): ネットワークパケットキャプチャのai分類を説明するためのクラスアクティベーションマップの可視化
- Authors: Igor Cherepanov, Alex Ulmer, Jonathan Geraldi Joewono, J\"orn
Kohlhammer
- Abstract要約: ネットワーク内のコネクションの数と新しいアプリケーションの追加は、大量のログデータを引き起こします。
ディープラーニング手法は、特徴抽出と単一システムにおけるデータからの分類の両方を提供する。
本稿では、ネットワークデータの分類と説明技法を組み合わせて、専門家、アルゴリズム、データ間のインターフェースを形成する視覚対話型ツールを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The classification of internet traffic has become increasingly important due
to the rapid growth of today's networks and applications. The number of
connections and the addition of new applications in our networks causes a vast
amount of log data and complicates the search for common patterns by experts.
Finding such patterns among specific classes of applications is necessary to
fulfill various requirements in network analytics. Deep learning methods
provide both feature extraction and classification from data in a single
system. However, these networks are very complex and are used as black-box
models, which weakens the experts' trust in the classifications. Moreover, by
using them as a black-box, new knowledge cannot be obtained from the model
predictions despite their excellent performance. Therefore, the explainability
of the classifications is crucial. Besides increasing trust, the explanation
can be used for model evaluation gaining new insights from the data and
improving the model. In this paper, we present a visual interactive tool that
combines the classification of network data with an explanation technique to
form an interface between experts, algorithms, and data.
- Abstract(参考訳): インターネットトラフィックの分類は、今日のネットワークやアプリケーションの急速な成長により、ますます重要になっている。
ネットワーク内のコネクションの数と新しいアプリケーションの追加は、大量のログデータを引き起こし、専門家による共通パターンの検索を複雑にします。
ネットワーク分析のさまざまな要件を満たすためには、特定のアプリケーションクラス間でそのようなパターンを見つける必要がある。
深層学習法は,単一システムにおける特徴抽出とデータ分類の両方を提供する。
しかし、これらのネットワークは非常に複雑であり、ブラックボックスモデルとして使われ、分類に対する専門家の信頼を弱める。
さらに,ブラックボックスとして用いることで,優れた性能にもかかわらず,モデル予測から新たな知識を得ることはできない。
したがって,分類の妥当性は重要である。
信頼度の向上に加えて、この説明はデータから新たな洞察を得てモデルを改善するためのモデル評価にも利用できる。
本稿では,ネットワークデータの分類と説明手法を組み合わせて,専門家,アルゴリズム,データ間のインターフェースを形成する視覚対話型ツールを提案する。
関連論文リスト
- XAI for Self-supervised Clustering of Wireless Spectrum Activity [0.5809784853115825]
本稿では,深層クラスタリング,自己教師型学習アーキテクチャの方法論を提案する。
表現学習部では,入力データの関心領域の解釈にガイドバックプロパゲーションを用いる。
クラスタリングの部分は、クラスタリングの結果を説明するために、Shallow Treesに依存しています。
最後に、データ固有の視覚化部は、各クラスタと入力データとの接続を関連機能をトラフすることを可能にする。
論文 参考訳(メタデータ) (2023-05-17T08:56:43Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - Interpretability of an Interaction Network for identifying $H
\rightarrow b\bar{b}$ jets [4.553120911976256]
近年、ディープニューラルネットワークに基づくAIモデルは、これらのアプリケーションの多くで人気が高まっている。
我々は、高揚した$Hto bbarb$ jetを識別するために設計されたインタラクションネットワーク(IN)モデルを調べることで、AIモデルの解釈可能性を検討する。
さらに、INモデル内の隠れレイヤの活動を、ニューラルアクティベーションパターン(NAP)ダイアグラムとして記述する。
論文 参考訳(メタデータ) (2022-11-23T08:38:52Z) - Mutual information estimation for graph convolutional neural networks [0.0]
本稿では,学習中にネットワークの内部表現を追跡するアーキテクチャに依存しない手法を提案する。
グラフベースアーキテクチャで導入された帰納バイアスが、完全に接続されたニューラルネットワークに対して相互情報平面をどのように変化させるかを比較する。
論文 参考訳(メタデータ) (2022-03-31T08:30:04Z) - A Comprehensive Survey on Community Detection with Deep Learning [93.40332347374712]
コミュニティは、ネットワーク内の他のコミュニティと異なるメンバーの特徴と接続を明らかにする。
この調査は、最先端の手法の様々なカテゴリをカバーする新しい分類法を考案し、提案する。
ディープニューラルネットワーク(Deep Neural Network)は、畳み込みネットワーク(convolutional network)、グラフアテンションネットワーク( graph attention network)、生成的敵ネットワーク(generative adversarial network)、オートエンコーダ(autoencoder)に分けられる。
論文 参考訳(メタデータ) (2021-05-26T14:37:07Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Learning Cross-domain Generalizable Features by Representation
Disentanglement [11.74643883335152]
ディープラーニングモデルは、異なるドメイン間で限定的な一般化性を示す。
本稿では,MIDNet(Multual-Information-based Disentangled Neural Networks)を提案する。
本手法は手書き桁データセットと胎児超音波データセットを用いて画像分類を行う。
論文 参考訳(メタデータ) (2020-02-29T17:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。