論文の概要: The Road of Adaptive AI for Precision in Cybersecurity
- arxiv url: http://arxiv.org/abs/2512.06048v1
- Date: Fri, 05 Dec 2025 10:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.169019
- Title: The Road of Adaptive AI for Precision in Cybersecurity
- Title(参考訳): サイバーセキュリティの精度のための適応型AIの道
- Authors: Sahil Garg,
- Abstract要約: サイバーセキュリティの進化する複雑さは、AIの研究と実践に固有の課題と機会をもたらす。
本稿では、サイバーセキュリティにおけるプロダクショングレードのGenAIパイプラインの設計、構築、運用に関する重要な教訓と洞察を共有する。
- 参考スコア(独自算出の注目度): 11.709123172703144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cybersecurity's evolving complexity presents unique challenges and opportunities for AI research and practice. This paper shares key lessons and insights from designing, building, and operating production-grade GenAI pipelines in cybersecurity, with a focus on the continual adaptation required to keep pace with ever-shifting knowledge bases, tooling, and threats. Our goal is to provide an actionable perspective for AI practitioners and industry stakeholders navigating the frontier of GenAI for cybersecurity, with particular attention to how different adaptation mechanisms complement each other in end-to-end systems. We present practical guidance derived from real-world deployments, propose best practices for leveraging retrieval- and model-level adaptation, and highlight open research directions for making GenAI more robust, precise, and auditable in cyber defense.
- Abstract(参考訳): サイバーセキュリティの進化する複雑さは、AIの研究と実践に固有の課題と機会をもたらす。
本稿では、サイバーセキュリティにおけるプロダクショングレードのGenAIパイプラインの設計、構築、運用に関する重要な教訓と洞察を共有する。
我々のゴールは、サイバーセキュリティのためにGenAIのフロンティアをナビゲートするAI実践者や業界のステークホルダーに実用的な視点を提供することであり、特にエンドツーエンドシステムにおいて、異なる適応メカニズムが相互にどのように補完するかに注目します。
我々は,実世界の展開から導かれた実践的ガイダンスを提示し,検索レベルおよびモデルレベルの適応を活用するためのベストプラクティスを提案し,GenAIをより堅牢で正確かつ監査しやすいものにするためのオープンな研究の方向性を強調した。
関連論文リスト
- Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Integrating Generative AI in Cybersecurity Education: Case Study Insights on Pedagogical Strategies, Critical Thinking, and Responsible AI Use [0.0]
本研究では,GenAIツールをサイバーセキュリティ教育に統合するための構造的枠組みを提案する。
実装戦略は2段階のアプローチに従い、チュートリアル演習とアセスメントタスクにGenAIを組み込んだ。
調査の結果,AI支援学習は,セキュリティポリシーの評価,リスク評価の精査,理論的知識の実践的応用へのブリッジといった,学生の能力を大幅に向上させた。
論文 参考訳(メタデータ) (2025-02-21T10:14:07Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - AI-Augmented Ethical Hacking: A Practical Examination of Manual Exploitation and Privilege Escalation in Linux Environments [2.3020018305241337]
本研究は,Linux ベースの浸透試験環境における手動操作および特権エスカレーションタスクにおける生成AI(GenAI)の適用について検討する。
以上の結果から,GenAIは攻撃ベクトルの特定や,特権エスカレーション時の機密データに対する複雑な出力解析など,プロセスの合理化が可能であることが示唆された。
論文 参考訳(メタデータ) (2024-11-26T15:55:15Z) - Networking Systems for Video Anomaly Detection: A Tutorial and Survey [55.28514053969056]
ビデオ異常検出(VAD)は人工知能(AI)コミュニティにおける基本的な研究課題である。
ディープラーニングとエッジコンピューティングの進歩により、VADは大きな進歩を遂げた。
この記事では、NSVADの初心者向けの包括的なチュートリアルを紹介します。
論文 参考訳(メタデータ) (2024-05-16T02:00:44Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Review of Generative AI Methods in Cybersecurity [0.6990493129893112]
本稿では、Generative AI(GenAI)の現状について概観する。
暴行、脱獄、即時注射と逆心理学の応用をカバーしている。
また、サイバー犯罪におけるGenAIのさまざまな応用として、自動ハッキング、フィッシングメール、ソーシャルエンジニアリング、リバース暗号、攻撃ペイロードの作成、マルウェアの作成などを提供している。
論文 参考訳(メタデータ) (2024-03-13T17:05:05Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。