論文の概要: DaemonSec: Examining the Role of Machine Learning for Daemon Security in Linux Environments
- arxiv url: http://arxiv.org/abs/2504.08227v1
- Date: Fri, 11 Apr 2025 03:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:17:24.295875
- Title: DaemonSec: Examining the Role of Machine Learning for Daemon Security in Linux Environments
- Title(参考訳): DaemonSec: Linux環境でのデーモンセキュリティにおける機械学習の役割を理解する
- Authors: Sheikh Muhammad Farjad,
- Abstract要約: DaemonSecは、Linuxデーモンのための機械学習(ML)ベースのセキュリティを探求するアーリーステージのスタートアップである。
本稿では,産業におけるML駆動デーモンの安全性向上のための手法,鍵となる知見,および意義について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: DaemonSec is an early-stage startup exploring machine learning (ML)-based security for Linux daemons, a critical yet often overlooked attack surface. While daemon security remains underexplored, conventional defenses struggle against adaptive threats and zero-day exploits. To assess the perspectives of IT professionals on ML-driven daemon protection, a systematic interview study based on semi-structured interviews was conducted with 22 professionals from industry and academia. The study evaluates adoption, feasibility, and trust in ML-based security solutions. While participants recognized the potential of ML for real-time anomaly detection, findings reveal skepticism toward full automation, limited security awareness among non-security roles, and concerns about patching delays creating attack windows. This paper presents the methods, key findings, and implications for advancing ML-driven daemon security in industry.
- Abstract(参考訳): DaemonSecは、Linuxデーモンのための機械学習(ML)ベースのセキュリティを探求する初期段階のスタートアップである。
デーモンのセキュリティはいまだ探索されていないが、従来の防衛は適応的な脅威やゼロデイエクスプロイトと戦っている。
MLによるデーモン保護に関するIT専門家の視点を評価するため,産業・学界の専門家22名を対象に,半構造化面接に基づく体系的な面接調査を行った。
この研究はMLベースのセキュリティソリューションの採用、実現可能性、信頼性を評価する。
参加者はMLのリアルタイム異常検出の可能性を認識した一方で、完全な自動化に対する懐疑論、非セキュリティロール間のセキュリティ意識の制限、攻撃ウィンドウ作成の遅れに対する懸念が明らかになった。
本稿では,産業におけるML駆動デーモンの安全性向上のための手法,鍵となる知見,および意義について述べる。
関連論文リスト
- Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Transforming Computer Security and Public Trust Through the Exploration of Fine-Tuning Large Language Models [0.0]
Mallasは、大きな言語モデル(LLM)を悪用する悪意のあるサービスである。
本稿では,様々な事前学習言語モデルとその効率と脆弱性を検証し,Mallasの増殖について考察する。
論文 参考訳(メタデータ) (2024-06-02T06:10:31Z) - Benchmarking and Defending Against Indirect Prompt Injection Attacks on Large Language Models [79.0183835295533]
我々は,このような脆弱性のリスクを評価するために,BIPIAと呼ばれる間接的インジェクション攻撃のための最初のベンチマークを導入した。
我々の分析では、LLMが情報コンテキストと動作可能な命令を区別できないことと、外部コンテンツ内での命令の実行を回避できないことの2つの主要な要因を同定した。
ブラックボックスとホワイトボックスという2つの新しい防御機構と、これらの脆弱性に対処するための明確なリマインダーを提案する。
論文 参考訳(メタデータ) (2023-12-21T01:08:39Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Confidential Machine Learning Computation in Untrusted Environments: A
Systems Security Perspective [1.9116784879310027]
本稿では,TEE保護型秘密MLにおける攻撃ベクトルの分類と緩和によって,信頼できない環境下での包括的かつ包括的調査を行う。
マルチパーティのMLセキュリティ要件を分析し、関連するエンジニアリング課題について議論する。
論文 参考訳(メタデータ) (2021-11-05T07:56:25Z) - Robust Machine Learning Systems: Challenges, Current Trends,
Perspectives, and the Road Ahead [24.60052335548398]
機械学習(ML)技術は、スマートサイバーフィジカルシステム(CPS)とIoT(Internet-of-Things)によって急速に採用されています。
ハードウェアとソフトウェアの両方のレベルで、さまざまなセキュリティと信頼性の脅威に脆弱であり、その正確性を損ないます。
本稿では、現代のMLシステムの顕著な脆弱性を要約し、これらの脆弱性に対する防御と緩和技術の成功を強調する。
論文 参考訳(メタデータ) (2021-01-04T20:06:56Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Security and Machine Learning in the Real World [33.40597438876848]
私たちは、大規模にデプロイされた機械学習ソフトウェア製品のセキュリティを評価し、システムのセキュリティビューを含む会話を広げるために、私たちの経験に基づいています。
本稿では,機械学習モジュールをデプロイする実践者がシステムを保護するために使用できる,短期的な緩和提案のリストを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:57:12Z) - Adversarial Machine Learning -- Industry Perspectives [6.645585967550316]
28の組織へのインタビューから、業界実践者は機械学習(ML)システムに対する攻撃を守り、検出し、対応するための戦術的および戦略的なツールを持っていないことがわかった。
従来のソフトウェアセキュリティ開発の文脈で見た場合、私たちはインタビューの洞察を活用し、機械学習システムの確保における視点のギャップを列挙します。
論文 参考訳(メタデータ) (2020-02-04T02:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。