論文の概要: Exploring the extent of similarities in software failures across industries using LLMs
- arxiv url: http://arxiv.org/abs/2408.03528v1
- Date: Wed, 7 Aug 2024 03:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 13:53:42.600156
- Title: Exploring the extent of similarities in software failures across industries using LLMs
- Title(参考訳): LLMを用いた業界全体でのソフトウェア障害の類似度の調査
- Authors: Martin Detloff,
- Abstract要約: 本研究は, LLM(Failure Analysis Investigation with LLMs)モデルを用いて, 業界固有情報を抽出する。
以前の作業では、ニュース記事は信頼できる情報源から収集され、データベース内のインシデントによって分類された。
本研究は,これらの手法を,特定のドメインとソフトウェア障害の種類に分類することによって拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of software development necessitates enhanced safety measures. Extracting information about software failures from companies is becoming increasingly more available through news articles. This research utilizes the Failure Analysis Investigation with LLMs (FAIL) model to extract industry-specific information. Although the FAIL model's database is rich in information, it could benefit from further categorization and industry-specific insights to further assist software engineers. In previous work news articles were collected from reputable sources and categorized by incidents inside a database. Prompt engineering and Large Language Models (LLMs) were then applied to extract relevant information regarding the software failure. This research extends these methods by categorizing articles into specific domains and types of software failures. The results are visually represented through graphs. The analysis shows that throughout the database some software failures occur significantly more often in specific industries. This categorization provides a valuable resource for software engineers and companies to identify and address common failures. This research highlights the synergy between software engineering and Large Language Models (LLMs) to automate and enhance the analysis of software failures. By transforming data from the database into an industry specific model, we provide a valuable resource that can be used to identify common vulnerabilities, predict potential risks, and implement proactive measures for preventing software failures. Leveraging the power of the current FAIL database and data visualization, we aim to provide an avenue for safer and more secure software in the future.
- Abstract(参考訳): ソフトウェア開発の急速な進化は、高度な安全対策を必要とする。
企業からのソフトウェア障害に関する情報の抽出は、ニュース記事を通じてますます可能になっている。
本研究は, LLM(Failure Analysis Investigation with LLMs)モデルを用いて, 業界固有情報を抽出する。
FAILモデルのデータベースは情報に富んでいるが、さらなる分類と業界固有の洞察の恩恵を受けることができる。
以前の作業では、ニュース記事は信頼できる情報源から収集され、データベース内のインシデントによって分類された。
その後、プロンプトエンジニアリングとLarge Language Models (LLM) が適用され、ソフトウェア障害に関する関連情報を抽出した。
本研究は,これらの手法を,特定のドメインとソフトウェア障害の種類に分類することによって拡張する。
結果はグラフを通して視覚的に表現されます。
この分析は、特定の産業において、データベース全体を通して、いくつかのソフトウェア障害が著しく頻繁に発生することを示している。
この分類は、ソフトウェアエンジニアや企業が共通の失敗を特定し、対処するための貴重なリソースを提供する。
本研究は,ソフトウェア故障解析の自動化と強化を目的として,ソフトウェア工学と大規模言語モデル(LLM)の相乗効果を強調した。
データベースから業界固有のモデルにデータを変換することで、一般的な脆弱性を特定し、潜在的なリスクを予測し、ソフトウェア障害を防止するための積極的な対策を実施するために使用できる貴重なリソースを提供します。
現在のFAILデータベースのパワーとデータの視覚化を活用して、私たちは、より安全でよりセキュアなソフトウェアのための道を提供することを目標にしています。
関連論文リスト
- Outside the Comfort Zone: Analysing LLM Capabilities in Software Vulnerability Detection [9.652886240532741]
本稿では,ソースコードの脆弱性検出における大規模言語モデルの機能について,徹底的に解析する。
我々は6つの汎用LCMに対して脆弱性検出を特別に訓練した6つのオープンソースモデルの性能を評価する。
論文 参考訳(メタデータ) (2024-08-29T10:00:57Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - FAIL: Analyzing Software Failures from the News Using LLMs [2.7325338323814328]
このギャップを埋めるために, LLM (FAIL) システムを用いた故障解析手法を提案する。
FAILは、ニュースで報告されているように、ソフトウェア障害を収集し、分析し、要約する。
FAILは4,184項目で報告された2457の障害を特定し分析した。
論文 参考訳(メタデータ) (2024-06-12T13:51:51Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Harnessing Large Language Models for Software Vulnerability Detection: A Comprehensive Benchmarking Study [1.03590082373586]
ソースコードの脆弱性発見を支援するために,大規模言語モデル(LLM)を提案する。
目的は、複数の最先端のLCMをテストし、最も優れたプロンプト戦略を特定することである。
LLMは従来の静的解析ツールよりも多くの問題を特定でき、リコールやF1スコアの点で従来のツールよりも優れています。
論文 参考訳(メタデータ) (2024-05-24T14:59:19Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Automating SBOM Generation with Zero-Shot Semantic Similarity [2.169562514302842]
Software-Bill-of-Materials (SBOM)は、ソフトウェアアプリケーションのコンポーネントと依存関係を詳述した総合的なインベントリである。
本稿では,破壊的なサプライチェーン攻撃を防止するため,SBOMを自動生成する手法を提案する。
テスト結果は説得力があり、ゼロショット分類タスクにおけるモデルの性能を示す。
論文 参考訳(メタデータ) (2024-02-03T18:14:13Z) - An Empirical Study on Using Large Language Models to Analyze Software
Supply Chain Security Failures [2.176373527773389]
将来の障害を防ぐ1つの方法は、過去の失敗を研究することです。
これらの障害を分析する従来の手法では、手動でレポートを読み、要約する必要がある。
大規模言語モデル(LLM)のような自然言語処理技術は、障害の分析を支援するために利用することができる。
論文 参考訳(メタデータ) (2023-08-09T15:35:14Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - Robust and Transferable Anomaly Detection in Log Data using Pre-Trained
Language Models [59.04636530383049]
クラウドのような大規模コンピュータシステムにおける異常や障害は、多くのユーザに影響を与える。
システム情報の主要なトラブルシューティングソースとして,ログデータの異常検出のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T09:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。