論文の概要: Detection of Insider Threats using Artificial Intelligence and
Visualisation
- arxiv url: http://arxiv.org/abs/2109.02417v1
- Date: Mon, 6 Sep 2021 12:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:25:40.301743
- Title: Detection of Insider Threats using Artificial Intelligence and
Visualisation
- Title(参考訳): 人工知能と可視化によるインサイダー脅威の検出
- Authors: Vasileios Koutsouvelis, Stavros Shiaeles, Bogdan Ghita, Gueltoum
Bendiab
- Abstract要約: 畳み込みニューラルネットワークは、利用可能なデータセットによって生成された画像から潜在的な脅威を特定するために訓練された。
各ユーザの活動が、情報システムに対して悪意あるものとして分類されているかどうかという質問に答えた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Insider threats are one of the most damaging risk factors for the IT systems
and infrastructure of a company or an organization; identification of insider
threats has prompted the interest of the world academic research community,
with several solutions having been proposed to alleviate their potential
impact. For the implementation of the experimental stage described in this
study, the Convolutional Neural Network (from now on CNN) algorithm was used
and implemented via the Google TensorFlow program, which was trained to
identify potential threats from images produced by the available dataset. From
the examination of the images that were produced and with the help of Machine
Learning, the question of whether the activity of each user is classified as
malicious or not for the Information System was answered.
- Abstract(参考訳): インサイダー脅威は、企業や組織のITシステムやインフラにとって最も有害なリスク要因の1つであり、インサイダー脅威の特定が世界学術研究コミュニティの関心を喚起し、その潜在的な影響を軽減するためのいくつかのソリューションが提案されている。
本研究で記述された実験ステージの実装のために、畳み込みニューラルネットワーク(convolutional neural network, cnn)アルゴリズムは、利用可能なデータセットから生成されたイメージから潜在的な脅威を特定するようにトレーニングされたgoogle tensorflowプログラムを通じて使用され、実装された。
生成された画像と機械学習の助けを借りて、情報システムに対して、各ユーザのアクティビティが悪意あるものとして分類されているかどうかという疑問に答えた。
関連論文リスト
- Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Asset-centric Threat Modeling for AI-based Systems [7.696807063718328]
本稿では、AI関連資産、脅威、対策、残留リスクの定量化のためのアプローチおよびツールであるThreatFinderAIを提案する。
このアプローチの実用性を評価するため、参加者はAIベースのヘルスケアプラットフォームのサイバーセキュリティ専門家によって開発された脅威モデルを再現するよう命じられた。
全体として、ソリューションのユーザビリティはよく認識され、脅威の識別とリスクの議論を効果的にサポートする。
論文 参考訳(メタデータ) (2024-03-11T08:40:01Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - A Survey on Explainable Artificial Intelligence for Cybersecurity [14.648580959079787]
説明可能な人工知能(XAI)は、決定と行動に対して明確かつ解釈可能な説明を提供する機械学習モデルを作成することを目的としている。
ネットワークサイバーセキュリティの分野では、XAIは、サイバー脅威の振る舞いをよりよく理解することで、ネットワークセキュリティへのアプローチ方法に革命をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-03-07T22:54:18Z) - Ensemble learning techniques for intrusion detection system in the
context of cybersecurity [0.0]
侵入検知システムの概念は、より良い結果を得るためにデータマイニングと機械学習オレンジツールを応用した。
本研究の目的は,SVM (Support Vector Machine) と kNearest Neighbour (kNN) アルゴリズムによって支援されたスタックリング手法を用いて,アンサンブル学習手法を検討することである。
論文 参考訳(メタデータ) (2022-12-21T10:50:54Z) - ThreatKG: An AI-Powered System for Automated Open-Source Cyber Threat Intelligence Gathering and Management [65.0114141380651]
ThreatKGはOSCTIの収集と管理のための自動化システムである。
複数のソースから多数のOSCTIレポートを効率的に収集する。
さまざまな脅威エンティティに関する高品質な知識を抽出するために、AIベースの専門技術を使用する。
論文 参考訳(メタデータ) (2022-12-20T16:13:59Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Deep Learning for Insider Threat Detection: Review, Challenges and
Opportunities [22.976960488191505]
高度なディープラーニング技術は、複雑なデータからエンドツーエンドモデルを学ぶための新しいパラダイムを提供する。
既存の研究では、従来の機械学習アルゴリズムと比較して、ディープラーニングモデルはインサイダー脅威検出のパフォーマンスを向上させることが示されている。
インサイダー脅威検出タスクをさらに進めるためのディープラーニングの適用は、ラベル付きデータの欠如やアダプティブアタックなど、いくつかの制限に直面している。
論文 参考訳(メタデータ) (2020-05-25T22:48:01Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。