論文の概要: Detection of Insider Threats using Artificial Intelligence and
Visualisation
- arxiv url: http://arxiv.org/abs/2109.02417v1
- Date: Mon, 6 Sep 2021 12:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:25:40.301743
- Title: Detection of Insider Threats using Artificial Intelligence and
Visualisation
- Title(参考訳): 人工知能と可視化によるインサイダー脅威の検出
- Authors: Vasileios Koutsouvelis, Stavros Shiaeles, Bogdan Ghita, Gueltoum
Bendiab
- Abstract要約: 畳み込みニューラルネットワークは、利用可能なデータセットによって生成された画像から潜在的な脅威を特定するために訓練された。
各ユーザの活動が、情報システムに対して悪意あるものとして分類されているかどうかという質問に答えた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insider threats are one of the most damaging risk factors for the IT systems
and infrastructure of a company or an organization; identification of insider
threats has prompted the interest of the world academic research community,
with several solutions having been proposed to alleviate their potential
impact. For the implementation of the experimental stage described in this
study, the Convolutional Neural Network (from now on CNN) algorithm was used
and implemented via the Google TensorFlow program, which was trained to
identify potential threats from images produced by the available dataset. From
the examination of the images that were produced and with the help of Machine
Learning, the question of whether the activity of each user is classified as
malicious or not for the Information System was answered.
- Abstract(参考訳): インサイダー脅威は、企業や組織のITシステムやインフラにとって最も有害なリスク要因の1つであり、インサイダー脅威の特定が世界学術研究コミュニティの関心を喚起し、その潜在的な影響を軽減するためのいくつかのソリューションが提案されている。
本研究で記述された実験ステージの実装のために、畳み込みニューラルネットワーク(convolutional neural network, cnn)アルゴリズムは、利用可能なデータセットから生成されたイメージから潜在的な脅威を特定するようにトレーニングされたgoogle tensorflowプログラムを通じて使用され、実装された。
生成された画像と機械学習の助けを借りて、情報システムに対して、各ユーザのアクティビティが悪意あるものとして分類されているかどうかという疑問に答えた。
関連論文リスト
- Asset-driven Threat Modeling for AI-based Systems [7.754802111308721]
本研究の目的は、医療領域で設計されたAIシステムの脅威モデルを作成することである。
ソリューションのユーザビリティは良好に評価され,脅威識別に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-11T08:40:01Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - Ensemble learning techniques for intrusion detection system in the
context of cybersecurity [0.0]
侵入検知システムの概念は、より良い結果を得るためにデータマイニングと機械学習オレンジツールを応用した。
本研究の目的は,SVM (Support Vector Machine) と kNearest Neighbour (kNN) アルゴリズムによって支援されたスタックリング手法を用いて,アンサンブル学習手法を検討することである。
論文 参考訳(メタデータ) (2022-12-21T10:50:54Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Deep Learning for Insider Threat Detection: Review, Challenges and
Opportunities [22.976960488191505]
高度なディープラーニング技術は、複雑なデータからエンドツーエンドモデルを学ぶための新しいパラダイムを提供する。
既存の研究では、従来の機械学習アルゴリズムと比較して、ディープラーニングモデルはインサイダー脅威検出のパフォーマンスを向上させることが示されている。
インサイダー脅威検出タスクをさらに進めるためのディープラーニングの適用は、ラベル付きデータの欠如やアダプティブアタックなど、いくつかの制限に直面している。
論文 参考訳(メタデータ) (2020-05-25T22:48:01Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。