論文の概要: Generative AI in Live Operations: Evidence of Productivity Gains in Cybersecurity and Endpoint Management
- arxiv url: http://arxiv.org/abs/2504.08805v1
- Date: Wed, 09 Apr 2025 00:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:53:16.096442
- Title: Generative AI in Live Operations: Evidence of Productivity Gains in Cybersecurity and Endpoint Management
- Title(参考訳): ライブ運用における生成AI - サイバーセキュリティとエンドポイント管理における生産性向上の証拠
- Authors: James Bono, Justin Grana, Kleanthis Karakolios, Pruthvi Hanumanthapura Ramakrishna, Ankit Srivastava,
- Abstract要約: 我々は、生成AI(GAI)ツールの採用と、セキュリティ操作、情報保護、エンドポイント管理にまたがる4つのメトリクスとの関係を計測する。
GAIは、4つの指標の堅牢で統計的、事実上重要な改善と結びついている。
- 参考スコア(独自算出の注目度): 0.9953130694466858
- License:
- Abstract: We measure the association between generative AI (GAI) tool adoption and four metrics spanning security operations, information protection, and endpoint management: 1) number of security alerts per incident, 2) probability of security incident reopenings, 3) time to classify a data loss prevention alert, and 4) time to resolve device policy conflicts. We find that GAI is associated with robust and statistically and practically significant improvements in the four metrics. Although unobserved confounders inhibit causal identification, these results are among the first to use observational data from live operations to investigate the relationship between GAI adoption and security operations, data loss prevention, and device policy management.
- Abstract(参考訳): 我々は、生成AI(GAI)ツールの採用と、セキュリティ操作、情報保護、エンドポイント管理にまたがる4つのメトリクスとの関係を計測する。
1)インシデント当たりのセキュリティ警告の件数
2 セキュリティインシデント再開の確率
3)データ損失防止警告を分類する時間、及び
4) 機器政策の対立を解決するための時間。
GAIは、4つの指標の頑健で統計的、事実上重要な改善と結びついていることがわかりました。
保存されていない共同設立者は因果同定を阻害するが、これらの結果は、GAI導入とセキュリティ操作、データ損失防止、デバイスポリシー管理との関係を調査するために、ライブ操作から観測データを使用した最初のものの一つである。
関連論文リスト
- IDU-Detector: A Synergistic Framework for Robust Masquerader Attack Detection [3.3821216642235608]
デジタル時代には、ユーザは個人データを企業データベースに格納し、データセキュリティを企業管理の中心とする。
大規模な攻撃面を考えると、アセットは弱い認証、脆弱性、マルウェアといった課題に直面している。
IDU-Detectorを導入し、侵入検知システム(IDS)とユーザ・エンティティ・ビヘイビア・アナリティクス(UEBA)を統合した。
この統合は、不正アクセスを監視し、システムギャップをブリッジし、継続的な監視を保証し、脅威識別を強化する。
論文 参考訳(メタデータ) (2024-11-09T13:03:29Z) - Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - SafeLLM: Domain-Specific Safety Monitoring for Large Language Models: A Case Study of Offshore Wind Maintenance [0.6116681488656472]
本稿では,Large Language Models (LLMs) に着目して,この課題に対処する革新的なアプローチを提案する。
本稿では,幻覚の検出とフィルタリングのための文間距離を統計的に計算するための対話エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-06T13:00:53Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - A Rule Mining-Based Advanced Persistent Threats Detection System [2.75264806444313]
高度な永続的脅威(APT)は、標的組織から貴重な情報を盗もうとするステルスなサイバー攻撃である。
活動間の因果関係を見つけ出し、不審な出来事を発生させるのに役立てることができるため、希少な追跡と痕跡採掘は有望であると考えられている。
プロセスアクティビティを反映するOSに依存しない特徴を活用する教師なしの手法を導入し,プロファイランストレースから現実的なAPTライクな攻撃を検出する。
論文 参考訳(メタデータ) (2021-05-20T22:13:13Z) - RANK: AI-assisted End-to-End Architecture for Detecting Persistent
Attacks in Enterprise Networks [2.294014185517203]
APT(Advanced Persistent Threats)検出のためのエンドツーエンドAI支援アーキテクチャを提案する。
アーキテクチャは、1アラートテンプレートとマージ、2アラートグラフの構築、3アラートグラフをインシデントに分割、4インシデントスコアリングと順序付けの4つの連続したステップで構成されています。
分析対象のデータの3桁の削減,イシデントの革新的な抽出,抽出したインシデントのセキュリティ面でのスコア付けなど,広範な結果が得られた。
論文 参考訳(メタデータ) (2021-01-06T15:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。