論文の概要: Using a Collated Cybersecurity Dataset for Machine Learning and
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2108.02618v1
- Date: Thu, 5 Aug 2021 13:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-06 16:57:50.039781
- Title: Using a Collated Cybersecurity Dataset for Machine Learning and
Artificial Intelligence
- Title(参考訳): 機械学習と人工知能のための照合型サイバーセキュリティデータセットの使用
- Authors: Erik Hemberg, Una-May O'Reilly
- Abstract要約: このコントリビューションは、パブリックな脅威と脆弱性の行動ソースから集約されたBRONというデータセットに基づいている。
我々は、BRONが関連する脅威技術や攻撃パターンの予測をどのようにサポートするかを示す。
- 参考スコア(独自算出の注目度): 11.510780227841611
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) and Machine Learning (ML) algorithms can support
the span of indicator-level, e.g. anomaly detection, to behavioral level cyber
security modeling and inference. This contribution is based on a dataset named
BRON which is amalgamated from public threat and vulnerability behavioral
sources. We demonstrate how BRON can support prediction of related threat
techniques and attack patterns. We also discuss other AI and ML uses of BRON to
exploit its behavioral knowledge.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)アルゴリズムは、例えば指標レベルの範囲をサポートすることができる。
異常検出 - 行動レベルのサイバーセキュリティモデリングと推論。
この貢献は、公共の脅威と脆弱性の行動源から融合したbronというデータセットに基づいている。
我々は、BRONが関連する脅威技術や攻撃パターンの予測をどのようにサポートするかを示す。
また、行動知識を活用するために、BRONの他のAIおよびMLの使用についても論じる。
関連論文リスト
- What Does the Bot Say? Opportunities and Risks of Large Language Models
in Social Media Bot Detection [51.46864805462009]
ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
論文 参考訳(メタデータ) (2024-02-01T06:21:19Z) - Tensor Networks for Explainable Machine Learning in Cybersecurity [0.0]
マトリックス製品状態(MPS)に基づく教師なしクラスタリングアルゴリズムを開発した。
我々の調査は、MPSがオートエンコーダやGANといった従来のディープラーニングモデルと性能的に競合していることを証明している。
提案手法は,機能的確率,フォン・ノイマン・エントロピー,相互情報の抽出を自然に促進する。
論文 参考訳(メタデータ) (2023-12-29T22:35:45Z) - Implicit Offline Reinforcement Learning via Supervised Learning [83.8241505499762]
監視学習によるオフライン強化学習(RL)は、さまざまな専門レベルのポリシーによって収集されたデータセットからロボットスキルを学ぶための、シンプルで効果的な方法である。
我々は、暗黙的なモデルが返却情報を利用して、固定されたデータセットからロボットスキルを取得するために、明示的なアルゴリズムにマッチするか、あるいは性能を向上するかを示す。
論文 参考訳(メタデータ) (2022-10-21T21:59:42Z) - Support Vector Machines under Adversarial Label Contamination [13.299257835329868]
本稿では,SVM(Support Vector Machines)のセキュリティ評価を行った。
特に,複数のラベルを反転させることで,SVMの分類エラーを形式化することを目的とした攻撃者について検討する。
我々は、よりセキュアなSVM学習アルゴリズムを開発する上で、我々のアプローチは有用な洞察を与えることができると論じる。
論文 参考訳(メタデータ) (2022-06-01T09:38:07Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Adversarial Machine Learning Threat Analysis in Open Radio Access
Networks [37.23982660941893]
Open Radio Access Network (O-RAN) は、新しい、オープンで適応的でインテリジェントなRANアーキテクチャである。
本稿では,O-RANに対する体系的対向機械学習脅威分析を提案する。
論文 参考訳(メタデータ) (2022-01-16T17:01:38Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Informing Autonomous Deception Systems with Cyber Expert Performance
Data [0.0]
本稿では、逆強化学習(IRL)を用いて攻撃行動、攻撃行動の有用性、究極的にはサイバー詐欺が阻止できる決定ポイントの洞察を得る可能性について検討する。
例えば、Tularosaの研究は、攻撃者がよく使う現実世界の技術とツールの実験データを提供し、そこからコアデータを活用して、自律的なサイバー防衛システムに通知する。
論文 参考訳(メタデータ) (2021-08-31T20:28:09Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Machine Learning in Network Intrusion Detection Systems [6.18778092044887]
ネットワーク侵入検知システムにおける逆問題の性質について検討する。
進化的計算(粒子群最適化と遺伝的アルゴリズム)と深層学習(生成的敵ネットワーク)を、敵対的サンプル生成のためのツールとして利用する。
我々の研究は、敵の摂動に直面した機械学習ベースのNIDSの脆弱性を強調している。
論文 参考訳(メタデータ) (2020-04-23T19:47:43Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。