論文の概要: Generative AI in Live Operations: Evidence of Productivity Gains in Cybersecurity and Endpoint Management
- arxiv url: http://arxiv.org/abs/2504.08805v1
- Date: Wed, 09 Apr 2025 00:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 05:49:03.194306
- Title: Generative AI in Live Operations: Evidence of Productivity Gains in Cybersecurity and Endpoint Management
- Title(参考訳): ライブ運用における生成AI - サイバーセキュリティとエンドポイント管理における生産性向上の証拠
- Authors: James Bono, Justin Grana, Kleanthis Karakolios, Pruthvi Hanumanthapura Ramakrishna, Ankit Srivastava,
- Abstract要約: 我々は、生成AI(GAI)ツールの採用と、セキュリティ操作、情報保護、エンドポイント管理にまたがる4つのメトリクスとの関係を計測する。
GAIは、4つの指標の堅牢で統計的、事実上重要な改善と結びついている。
- 参考スコア(独自算出の注目度): 0.9953130694466858
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We measure the association between generative AI (GAI) tool adoption and four metrics spanning security operations, information protection, and endpoint management: 1) number of security alerts per incident, 2) probability of security incident reopenings, 3) time to classify a data loss prevention alert, and 4) time to resolve device policy conflicts. We find that GAI is associated with robust and statistically and practically significant improvements in the four metrics. Although unobserved confounders inhibit causal identification, these results are among the first to use observational data from live operations to investigate the relationship between GAI adoption and security operations, data loss prevention, and device policy management.
- Abstract(参考訳): 我々は、生成AI(GAI)ツールの採用と、セキュリティ操作、情報保護、エンドポイント管理にまたがる4つのメトリクスとの関係を計測する。
1)インシデント当たりのセキュリティ警告の件数
2 セキュリティインシデント再開の確率
3)データ損失防止警告を分類する時間、及び
4) 機器政策の対立を解決するための時間。
GAIは、4つの指標の頑健で統計的、事実上重要な改善と結びついていることがわかりました。
保存されていない共同設立者は因果同定を阻害するが、これらの結果は、GAI導入とセキュリティ操作、データ損失防止、デバイスポリシー管理との関係を調査するために、ライブ操作から観測データを使用した最初のものの一つである。
関連論文リスト
- Prioritizing Security Practice Adoption: Empirical Insights on Software Security Outcomes in the npm Ecosystem [5.900798025576862]
本研究の目的は、実践者や政策立案者がどのセキュリティプラクティスを採用するべきかを判断するのを支援することである。
npm GitHubリポジトリにおけるセキュリティプラクティスの採用を自動的に測定するために、OpenSSF Scorecardメトリクスを選択しました。
12Scorecard測定値とその集計スコアを用いて回帰分析および因果解析を行った。
論文 参考訳(メタデータ) (2025-04-18T18:31:31Z) - An Approach to Technical AGI Safety and Security [72.83728459135101]
我々は、人類を著しく傷つけるのに十分な害のリスクに対処するアプローチを開発する。
私たちは、誤用や悪用に対する技術的なアプローチに重点を置いています。
これらの成分を組み合わせてAGIシステムの安全性を実現する方法について概説する。
論文 参考訳(メタデータ) (2025-04-02T15:59:31Z) - MES-RAG: Bringing Multi-modal, Entity-Storage, and Secure Enhancements to RAG [65.0423152595537]
本稿では,エンティティ固有のクエリ処理を強化し,正確でセキュアで一貫した応答を提供するMES-RAGを提案する。
MES-RAGは、データアクセスの前に保護を適用してシステムの整合性を確保するための積極的なセキュリティ対策を導入している。
実験の結果,MES-RAGは精度とリコールの両方を著しく改善し,質問応答の安全性と有用性を向上する効果が示された。
論文 参考訳(メタデータ) (2025-03-17T08:09:42Z) - IDU-Detector: A Synergistic Framework for Robust Masquerader Attack Detection [3.3821216642235608]
デジタル時代には、ユーザは個人データを企業データベースに格納し、データセキュリティを企業管理の中心とする。
大規模な攻撃面を考えると、アセットは弱い認証、脆弱性、マルウェアといった課題に直面している。
IDU-Detectorを導入し、侵入検知システム(IDS)とユーザ・エンティティ・ビヘイビア・アナリティクス(UEBA)を統合した。
この統合は、不正アクセスを監視し、システムギャップをブリッジし、継続的な監視を保証し、脅威識別を強化する。
論文 参考訳(メタデータ) (2024-11-09T13:03:29Z) - Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Collaborative Inference over Wireless Channels with Feature Differential Privacy [57.68286389879283]
複数の無線エッジデバイス間の協調推論は、人工知能(AI)アプリケーションを大幅に強化する可能性がある。
抽出された特徴を抽出することは、プロセス中に機密性の高い個人情報が暴露されるため、重大なプライバシーリスクをもたらす。
本稿では,ネットワーク内の各エッジデバイスが抽出された機能のプライバシを保護し,それらを中央サーバに送信して推論を行う,新たなプライバシ保存協調推論機構を提案する。
論文 参考訳(メタデータ) (2024-10-25T18:11:02Z) - SafeLLM: Domain-Specific Safety Monitoring for Large Language Models: A Case Study of Offshore Wind Maintenance [0.6116681488656472]
本稿では,Large Language Models (LLMs) に着目して,この課題に対処する革新的なアプローチを提案する。
本稿では,幻覚の検出とフィルタリングのための文間距離を統計的に計算するための対話エージェントを提案する。
論文 参考訳(メタデータ) (2024-10-06T13:00:53Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - LAN: Learning Adaptive Neighbors for Real-Time Insider Threat Detection [29.16768509762002]
我々は、リアルタイムITDを活動レベルで初めて研究し、きめ細かいフレームワークLANを提示する。
具体的には、LANはアクティビティシーケンス内の時間的依存関係を同時に学習する。
本稿では,正常な活動からの自己超越信号と異常な活動からの監視信号とを統合したハイブリッド予測損失を提案する。
論文 参考訳(メタデータ) (2024-03-14T09:22:17Z) - Security and Privacy on Generative Data in AIGC: A Survey [17.456578314457612]
我々はAIGCにおける生成データのセキュリティとプライバシについてレビューする。
プライバシ、制御性、信頼性、コンプライアンスの基本的な性質の観点から、最先端の対策が成功した経験を明らかにする。
論文 参考訳(メタデータ) (2023-09-18T02:35:24Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - RANK: AI-assisted End-to-End Architecture for Detecting Persistent
Attacks in Enterprise Networks [2.294014185517203]
APT(Advanced Persistent Threats)検出のためのエンドツーエンドAI支援アーキテクチャを提案する。
アーキテクチャは、1アラートテンプレートとマージ、2アラートグラフの構築、3アラートグラフをインシデントに分割、4インシデントスコアリングと順序付けの4つの連続したステップで構成されています。
分析対象のデータの3桁の削減,イシデントの革新的な抽出,抽出したインシデントのセキュリティ面でのスコア付けなど,広範な結果が得られた。
論文 参考訳(メタデータ) (2021-01-06T15:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。