論文の概要: On the use of neurosymbolic AI for defending against cyber attacks
- arxiv url: http://arxiv.org/abs/2408.04996v1
- Date: Fri, 9 Aug 2024 11:14:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 15:56:59.548122
- Title: On the use of neurosymbolic AI for defending against cyber attacks
- Title(参考訳): サイバー攻撃防止のためのニューロシンボリックAIの利用について
- Authors: Gudmund Grov, Jonas Halvorsen, Magnus Wiik Eckhoff, Bjørn Jervell Hansen, Martin Eian, Vasileios Mavroeidis,
- Abstract要約: 我々は,ニューロシンボリックAIを用いたコネクショナリズムとシンボリックAIの組み合わせについて論じる。
今日、AIを使用する際の課題のセットを特定し、ニューロシンボリックなユースケースのセットを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is generally accepted that all cyber attacks cannot be prevented, creating a need for the ability to detect and respond to cyber attacks. Both connectionist and symbolic AI are currently being used to support such detection and response. In this paper, we make the case for combining them using neurosymbolic AI. We identify a set of challenges when using AI today and propose a set of neurosymbolic use cases we believe are both interesting research directions for the neurosymbolic AI community and can have an impact on the cyber security field. We demonstrate feasibility through two proof-of-concept experiments.
- Abstract(参考訳): すべてのサイバー攻撃を防げないことが一般に受け入れられており、サイバー攻撃を検出して応答する能力の必要性が生じる。
コネクショニストとシンボリックAIの両方が、このような検出と応答をサポートするために現在使用されている。
本稿では,ニューロシンボリックAIを用いてそれらを組み合わせることを提案する。
私たちは今日、AIを使用する際の課題のセットを特定し、ニューロシンボリックAIコミュニティの興味深い研究方向であると同時に、サイバーセキュリティ分野に影響を及ぼす可能性があると信じている一連のニューロシンボリックユースケースを提案します。
2つの概念実証実験を通して実現可能性を示す。
関連論文リスト
- Is Generative AI the Next Tactical Cyber Weapon For Threat Actors? Unforeseen Implications of AI Generated Cyber Attacks [0.0]
本稿では,AIの誤用によるエスカレート脅威,特にLarge Language Models(LLMs)の使用について述べる。
一連の制御された実験を通じて、これらのモデルがどのようにして倫理的およびプライバシー保護を回避し、効果的にサイバー攻撃を発生させるかを実証する。
私たちはまた、サイバー攻撃の自動化と実行のために特別に設計されたカスタマイズされた微調整のLLMであるOccupy AIを紹介します。
論文 参考訳(メタデータ) (2024-08-23T02:56:13Z) - A Survey on Verification and Validation, Testing and Evaluations of
Neurosymbolic Artificial Intelligence [10.503182476649645]
ニューロシンボリック人工知能(Neurosymbolic AI, AI)は、AIとサブシンボリックAIの強みを組み合わせた、AIの新しい分野である。
サブシンボリックAIの大きな欠点は、それが"ブラックボックス"として機能することです。
この調査は、ニューロシンボリックな応用がV&Vプロセスをどのように緩和するかを調査する。
論文 参考訳(メタデータ) (2024-01-06T10:28:52Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z) - Poisoning Attacks on Cyber Attack Detectors for Industrial Control
Systems [34.86059492072526]
私たちはICSオンラインニューラルネットワーク検出器に対するこのような毒攻撃を最初に実演しています。
バックグラデーションベースの中毒という2つの異なる攻撃アルゴリズムを提案し、合成データと実世界のデータの両方でその効果を実証する。
論文 参考訳(メタデータ) (2020-12-23T14:11:26Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。