論文の概要: Bringing Order Amidst Chaos: On the Role of Artificial Intelligence in Secure Software Engineering
- arxiv url: http://arxiv.org/abs/2501.05165v1
- Date: Thu, 09 Jan 2025 11:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 14:00:59.896555
- Title: Bringing Order Amidst Chaos: On the Role of Artificial Intelligence in Secure Software Engineering
- Title(参考訳): カオスの中で秩序をもたらす - セキュアなソフトウェアエンジニアリングにおける人工知能の役割について
- Authors: Matteo Esposito,
- Abstract要約: 進化を続ける技術的景観は、機会と脅威の両方を提供し、カオスと秩序が競合する動的な空間を作り出す。
セキュアなソフトウェアエンジニアリング(SSE)は、ソフトウェアシステムを危険にさらす脆弱性に継続的に対処しなければならない。
この論文は、AIの精度に影響を与えるドメイン固有の違いに対処することで、SSEのカオスに秩序をもたらすことを目指している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Context. Developing secure and reliable software remains a key challenge in software engineering (SE). The ever-evolving technological landscape offers both opportunities and threats, creating a dynamic space where chaos and order compete. Secure software engineering (SSE) must continuously address vulnerabilities that endanger software systems and carry broader socio-economic risks, such as compromising critical national infrastructure and causing significant financial losses. Researchers and practitioners have explored methodologies like Static Application Security Testing Tools (SASTTs) and artificial intelligence (AI) approaches, including machine learning (ML) and large language models (LLMs), to detect and mitigate these vulnerabilities. Each method has unique strengths and limitations. Aim. This thesis seeks to bring order to the chaos in SSE by addressing domain-specific differences that impact AI accuracy. Methodology. The research employs a mix of empirical strategies, such as evaluating effort-aware metrics, analyzing SASTTs, conducting method-level analysis, and leveraging evidence-based techniques like systematic dataset reviews. These approaches help characterize vulnerability prediction datasets. Results. Key findings include limitations in static analysis tools for identifying vulnerabilities, gaps in SASTT coverage of vulnerability types, weak relationships among vulnerability severity scores, improved defect prediction accuracy using just-in-time modeling, and threats posed by untouched methods. Conclusions. This thesis highlights the complexity of SSE and the importance of contextual knowledge in improving AI-driven vulnerability and defect prediction. The comprehensive analysis advances effective prediction models, benefiting both researchers and practitioners.
- Abstract(参考訳): コンテキスト。
セキュアで信頼性の高いソフトウェアを開発することは、ソフトウェア工学(SE)における重要な課題である。
進化を続ける技術的景観は、機会と脅威の両方を提供し、カオスと秩序が競合する動的な空間を作り出す。
セキュアなソフトウェアエンジニアリング(SSE)は、ソフトウェアシステムを危険にさらす脆弱性に継続的に対処し、重要な国家インフラの妥協や重大な財政損失など、より広範な社会経済的リスクを負わなければならない。
研究者や実践者は、静的アプリケーションセキュリティテストツール(SASTT)や、マシンラーニング(ML)や大規模言語モデル(LLM)など、人工知能(AI)アプローチなどの方法論を調査して、これらの脆弱性を検出して軽減している。
それぞれの方法には独自の長所と制限がある。
エイム。
この論文は、AIの精度に影響を与えるドメイン固有の違いに対処することで、SSEのカオスに秩序をもたらすことを目指している。
方法論。
この研究は、努力を意識したメトリクスの評価、SASTTの分析、メソッドレベルの分析の実行、システマティックデータセットレビューのようなエビデンスベースのテクニックの活用など、実証的な戦略を交互に採用している。
これらのアプローチは、脆弱性予測データセットの特徴付けに役立つ。
結果。
主な発見は、脆弱性を識別するための静的解析ツールの制限、脆弱性タイプのSASTTカバレッジのギャップ、脆弱性の深刻度スコア間の弱い関係、ジャストインタイムモデリングによる欠陥予測精度の改善、未修正メソッドによる脅威などである。
結論。
この論文は、AI駆動の脆弱性と欠陥予測を改善する上で、SSEの複雑さとコンテキスト知識の重要性を強調している。
包括的な分析は効果的な予測モデルを進め、研究者と実践者の両方に利益をもたらす。
関連論文リスト
- CRepair: CVAE-based Automatic Vulnerability Repair Technology [1.147605955490786]
ソフトウェア脆弱性は、現代のソフトウェアとそのアプリケーションデータの完全性、セキュリティ、信頼性に重大な脅威をもたらす。
脆弱性修復の課題に対処するため、研究者らは、学習に基づく自動脆弱性修復技術が広く注目を集めるなど、様々な解決策を提案している。
本稿では,システムコードのセキュリティ脆弱性を修正することを目的としたCVAEベースの自動脆弱性修復技術であるCRepairを提案する。
論文 参考訳(メタデータ) (2024-11-08T12:55:04Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - A Survey on Failure Analysis and Fault Injection in AI Systems [28.30817443151044]
AIシステムの複雑さは脆弱性を露呈し、レジリエンスと信頼性を確保するために、障害分析(FA)と障害注入(FI)の堅牢な方法を必要とする。
この研究は、AIシステムの6層にわたる既存のFAとFIのアプローチを詳細に調査することで、このギャップを埋める。
この結果から,AIシステム障害の分類,既存のFIツールの能力評価,実世界とシミュレーション失敗の相違点が明らかになった。
論文 参考訳(メタデータ) (2024-06-28T00:32:03Z) - Leveraging LSTM and GAN for Modern Malware Detection [0.4799822253865054]
本稿では,マルウェア検出精度と速度を向上するために,ディープラーニングモデル,LSTMネットワーク,GAN分類器の利用を提案する。
研究結果は98%の精度で行われ、ディープラーニングの効率が積極的なサイバーセキュリティ防衛において決定的な役割を担っていることを示している。
論文 参考訳(メタデータ) (2024-05-07T14:57:24Z) - Dynamic Vulnerability Criticality Calculator for Industrial Control Systems [0.0]
本稿では,動的脆弱性臨界計算機を提案する革新的な手法を提案する。
本手法は, 環境トポロジの分析と, 展開されたセキュリティ機構の有効性を包含する。
本手法では,これらの要因を総合的なファジィ認知マップモデルに統合し,攻撃経路を組み込んで全体の脆弱性スコアを総合的に評価する。
論文 参考訳(メタデータ) (2024-03-20T09:48:47Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Building Safe and Reliable AI systems for Safety Critical Tasks with
Vision-Language Processing [1.2183405753834557]
現在のAIアルゴリズムでは、障害検出の一般的な原因を特定できない。
予測の質を定量化するためには、追加のテクニックが必要である。
この論文は、分類、画像キャプション、視覚質問応答といったタスクのための視覚言語データ処理に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-06T18:05:59Z) - Towards Automated Classification of Attackers' TTPs by combining NLP
with ML Techniques [77.34726150561087]
我々は,NLP(Natural Language Processing)と,研究におけるセキュリティ情報抽出に使用される機械学習技術の評価と比較を行った。
本研究では,攻撃者の戦術や手法に従って非構造化テキストを自動的に分類するデータ処理パイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-18T09:59:21Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。