論文の概要: Towards Log Analysis with AI Agents: Cowrie Case Study
- arxiv url: http://arxiv.org/abs/2509.05306v1
- Date: Fri, 22 Aug 2025 16:50:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-14 20:41:04.904592
- Title: Towards Log Analysis with AI Agents: Cowrie Case Study
- Title(参考訳): AIエージェントを用いたログ分析に向けて:カウリーケーススタディ
- Authors: Enis Karaarslan, Esin Güler, Efe Emir Yüce, Cagatay Coban,
- Abstract要約: 本研究では,自動ログ解析におけるAIエージェントの利用について検討する。
我々はCowrie honeypotログを処理するための軽量で自動化されたアプローチを提案する。
予備的な結果は、手作業の削減と攻撃パターンの特定におけるパイプラインの有効性を示している。
- 参考スコア(独自算出の注目度): 0.23332469289621785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The scarcity of real-world attack data significantly hinders progress in cybersecurity research and education. Although honeypots like Cowrie effectively collect live threat intelligence, they generate overwhelming volumes of unstructured and heterogeneous logs, rendering manual analysis impractical. As a first step in our project on secure and efficient AI automation, this study explores the use of AI agents for automated log analysis. We present a lightweight and automated approach to process Cowrie honeypot logs. Our approach leverages AI agents to intelligently parse, summarize, and extract insights from raw data, while also considering the security implications of deploying such an autonomous system. Preliminary results demonstrate the pipeline's effectiveness in reducing manual effort and identifying attack patterns, paving the way for more advanced autonomous cybersecurity analysis in future work.
- Abstract(参考訳): 現実世界の攻撃データの不足は、サイバーセキュリティ研究と教育の進歩を著しく妨げている。
カウリーのようなミツバチは、ライブの脅威知能を効果的に収集するが、無構造で異質なログを圧倒的に大量に生成し、手動による分析を非現実的にする。
この研究は、安全で効率的なAI自動化に関するプロジェクトの第一歩として、自動ログ分析にAIエージェントを使用することについて検討する。
我々はCowrie honeypotログを処理するための軽量で自動化されたアプローチを提案する。
このアプローチでは、AIエージェントを活用して、生データからの洞察をインテリジェントに解析、要約、抽出すると同時に、このような自律システムを展開する際のセキュリティ上の意味も考慮しています。
予備的な結果は、パイプラインが手作業の削減と攻撃パターンの特定に有効であることを示し、将来の作業におけるより高度な自律サイバーセキュリティ分析への道を開いた。
関連論文リスト
- Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5 [61.787178868669265]
この技術レポートは、サイバー犯罪、説得と操作、戦略上の詐欺、制御されていないAIR&D、自己複製の5つの重要な側面について、更新されきめ細かな評価を提示する。
この作業は、現在のAIフロンティアのリスクに対する理解を反映し、これらの課題を軽減するための集団行動を促します。
論文 参考訳(メタデータ) (2026-02-16T04:30:06Z) - ORCA -- An Automated Threat Analysis Pipeline for O-RAN Continuous Development [57.61878484176942]
Open-Radio Access Network (O-RAN)は、多くのソフトウェアコンポーネントをクラウドのようなデプロイメントに統合し、これまで考えられていなかったセキュリティ脅威に無線アクセスネットワークを開放する。
現在の脆弱性評価の実践は、しばしば手動、労働集約、主観的な調査に依存しており、脅威分析の不整合につながる。
人間の介入や関連するバイアスを最小限に抑えるために,自然言語処理(NLP)を活用する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2026-01-20T07:31:59Z) - An Adaptive Multi-Layered Honeynet Architecture for Threat Behavior Analysis via Deep Learning [0.0]
ADLAHは、AI駆動の騙しプラットフォームのためのエンドツーエンドのアーキテクチャの青写真とビジョンである。
中央決定機構のプロトタイプは、セッションが低相互作用センサーノードから動的にプロビジョニングされた高相互作用ハニーポットにエスカレートされるべきタイミングをリアルタイムで決定する。
選択的エスカレーションと異常検出以外にも、このアーキテクチャはボット攻撃チェーンの自動抽出、クラスタリング、バージョン管理を追求している。
論文 参考訳(メタデータ) (2025-12-08T18:55:26Z) - Enabling Transparent Cyber Threat Intelligence Combining Large Language Models and Domain Ontologies [3.4423725226938426]
ログからの情報抽出の精度と説明性を向上するAIエージェントを構築するための新しい手法を提案する。
本手法の設計は,ハニーポットデータに関連する解析的要件によって動機付けられている。
その結果,従来のプロンプトのみの手法に比べて,情報抽出の精度が高いことがわかった。
論文 参考訳(メタデータ) (2025-08-26T23:17:33Z) - Expert-in-the-Loop Systems with Cross-Domain and In-Domain Few-Shot Learning for Software Vulnerability Detection [38.083049237330826]
本研究では,CWE(Common Weaknessions)を用いたPythonコードの識別をシミュレーションすることにより,ソフトウェア脆弱性評価におけるLLM(Large Language Models)の利用について検討する。
その結果,ゼロショットプロンプトは性能が低いが,少数ショットプロンプトは分類性能を著しく向上させることがわかった。
モデル信頼性、解釈可能性、敵の堅牢性といった課題は、将来の研究にとって重要な領域のままである。
論文 参考訳(メタデータ) (2025-06-11T18:43:51Z) - Graph of Effort: Quantifying Risk of AI Usage for Vulnerability Assessment [0.0]
非AI資産を攻撃するために使用されるAIは、攻撃的AIと呼ばれる。
高度な自動化や複雑なパターン認識など、その能力を利用するリスクは大幅に増大する可能性がある。
本稿では,攻撃的AIを敵による脆弱性攻撃に使用するために必要な労力を分析するための,直感的でフレキシブルで効果的な脅威モデリング手法であるGraph of Effortを紹介する。
論文 参考訳(メタデータ) (2025-03-20T17:52:42Z) - Too Much to Trust? Measuring the Security and Cognitive Impacts of Explainability in AI-Driven SOCs [0.6990493129893112]
説明可能なAI(XAI)は、AIによる脅威検出の透明性と信頼性を高めるための大きな約束を持っている。
本研究は、セキュリティコンテキストにおける現在の説明手法を再評価し、SOCに適合したロールアウェアでコンテキストに富んだXAI設計が実用性を大幅に向上できることを実証する。
論文 参考訳(メタデータ) (2025-03-03T21:39:15Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。