論文の概要: Cyber Threat Intelligence for Artificial Intelligence Systems
- arxiv url: http://arxiv.org/abs/2603.05068v1
- Date: Thu, 05 Mar 2026 11:37:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.205403
- Title: Cyber Threat Intelligence for Artificial Intelligence Systems
- Title(参考訳): 人工知能システムにおけるサイバー脅威インテリジェンス
- Authors: Natalia Krawczyk, Mateusz Szczepkowski, Adrian Brodzik, Krzysztof Bocianiak,
- Abstract要約: 我々は、サイバー脅威インテリジェンスがどのように進化し、AIシステムをターゲットにした攻撃に対処するかを調査する。
AI指向の脅威知能知識基盤が持つべきものの概要を概説する。
収集された指標と新たに観測されたAIアーティファクトの類似性を測定する手法について議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence (AI) becomes deeply embedded in critical services and everyday products, it is increasingly exposed to security threats which traditional cyber defenses were not designed to handle. In this paper, we investigate how cyber threat intelligence (CTI) may evolve to address attacks that target AI systems. We first analyze the assumptions and workflows of conventional threat intelligence with the needs of AI-focused defense, highlighting AI-specific assets and vulnerabilities. We then review and organize the current landscape of AI security knowledge. Based on this, we outline what an AI-oriented threat intelligence knowledge base should contain, describing concrete indicators of compromise (IoC) for different AI supply-chain phases and artifacts, and showing how such a knowledge base could support security tools. Finally, we discuss techniques for measuring similarity between collected indicators and newly observed AI artifacts. The review reveals gaps and quality issues in existing resources and identifies potential future research directions toward a practical threat intelligence framework tailored to AI.
- Abstract(参考訳): 人工知能(AI)が重要なサービスや日常の製品に深く浸透するにつれ、従来のサイバー防衛が扱わなかったセキュリティ上の脅威にさらされている。
本稿では,サイバー脅威インテリジェンス(CTI)がAIシステムをターゲットにした攻撃にどのように対処するかを検討する。
私たちはまず、AIに特化した防衛の必要性によって、従来の脅威知能の仮定とワークフローを分析し、AI固有の資産と脆弱性を強調します。
そして、AIセキュリティ知識の現在の展望をレビューし、整理します。
これに基づいて、AI指向の脅威インテリジェンス知識ベースが持つべきものの概要、さまざまなAIサプライチェーンフェーズとアーティファクトに対する妥協(IoC)の具体的指標を説明し、そのような知識ベースがセキュリティツールをどのようにサポートするかを示す。
最後に,収集された指標と新たに観測されたAIアーティファクトの類似度を測定する手法について議論する。
このレビューは、既存のリソースのギャップと品質の問題を明らかにし、AIに適した実用的な脅威情報フレームワークに向けた潜在的研究の方向性を特定する。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Securing AI Systems: A Guide to Known Attacks and Impacts [0.0]
本稿では,予測型および生成型AIシステムに特有の敵攻撃の概要について述べる。
我々は11種類の主要な攻撃タイプを特定し、その影響に攻撃テクニックを明示的にリンクする。
我々は、AI固有のリスクを認識し、効果的な防御を実装するための基礎知識を、研究者、開発者、セキュリティ実践者、および政策立案者に提供することを目的としています。
論文 参考訳(メタデータ) (2025-06-29T15:32:03Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Towards an AI-Enhanced Cyber Threat Intelligence Processing Pipeline [0.0]
本稿では,人工知能(AI)をサイバー脅威知能(CTI)に統合する可能性について検討する。
我々は、AIに強化されたCTI処理パイプラインの青写真を提供し、そのコンポーネントと機能について詳述する。
倫理的ジレンマ、潜在的なバイアス、そしてAIによる意思決定における透明性の必須事項について論じる。
論文 参考訳(メタデータ) (2024-03-05T19:03:56Z) - Autonomous Threat Hunting: A Future Paradigm for AI-Driven Threat Intelligence [0.0]
人工知能(AI)と従来の脅威インテリジェンス方法論の融合を概観する。
従来の脅威インテリジェンスプラクティスに対するAIと機械学習の変革的な影響を検査する。
ケーススタディと評価は、AI駆動の脅威インテリジェンスを採用する組織から学んだ成功物語と教訓を強調している。
論文 参考訳(メタデータ) (2023-12-30T17:36:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Security and Privacy for Artificial Intelligence: Opportunities and
Challenges [11.368470074697747]
近年、ほとんどのAIモデルは高度なハッキング技術に弱い。
この課題は、敵AIの研究努力を共同で進めるきっかけとなった。
我々は、AIアプリケーションに対する敵攻撃を実証する総合的なサイバーセキュリティレビューを提示する。
論文 参考訳(メタデータ) (2021-02-09T06:06:13Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。