論文の概要: Practically implementing an LLM-supported collaborative vulnerability remediation process: a team-based approach
- arxiv url: http://arxiv.org/abs/2409.14058v1
- Date: Sat, 21 Sep 2024 08:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 03:55:36.766432
- Title: Practically implementing an LLM-supported collaborative vulnerability remediation process: a team-based approach
- Title(参考訳): LLMによる協調的脆弱性修復プロセスの実践--チームベースのアプローチ
- Authors: Xiaoqing Wang, Yuanjing Tian, Keman Huang, Bin Liang,
- Abstract要約: サイバーセキュリティを研究の文脈として利用し,脆弱性修復プロセスにLLMを効果的に組み込むための3段階の混合手法の研究を行う。
このことは、LLMをサポートする共同脆弱性修正プロセスの設計、実装、実証的な検証に刺激を与えます。
基本的に、我々の貢献は、効率的なLLM支援による協調的脆弱性修復プロセスを促進することである。
- 参考スコア(独自算出の注目度): 8.075587715801449
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Incorporating LLM into cybersecurity operations, a typical real-world high-stakes task, is critical but non-trivial in practice. Using cybersecurity as the study context, we conduct a three-step mix-method study to incorporate LLM into the vulnerability remediation process effectively. Specifically, we deconstruct the deficiencies in user satisfaction within the existing process (Study 1). This inspires us to design, implement, and empirically validate an LLM-supported collaborative vulnerability remediation process through a field study (Study 2). Given LLM's diverse contributions, we further investigate LLM's double-edge roles through the analysis of remediation reports and follow-up interviews (Study 3). In essence, our contribution lies in promoting an efficient LLM-supported collaborative vulnerability remediation process. These first-hand, real-world pieces of evidence suggest that when incorporating LLMs into practical processes, facilitating the collaborations among all associated stakeholders, reshaping LLMs' roles according to task complexity, as well as approaching the short-term side effects of improved user engagement facilitated by LLMs with a rational mindset.
- Abstract(参考訳): LLMをサイバーセキュリティオペレーションに組み込むことは、典型的な現実世界のハイテイクタスクである。
サイバーセキュリティを研究の文脈として利用し,脆弱性修復プロセスにLLMを効果的に組み込むための3段階の混合手法の研究を行う。
具体的には、既存のプロセスにおけるユーザ満足度不足を分解する(研究1)。
これにより、フィールドスタディを通じてLLMが支援する協調的脆弱性修復プロセスを設計し、実装し、実証的に検証することができる(研究2)。
LLMの多様な貢献を踏まえ、修復報告やフォローアップインタビューの分析を通じて、LLMの二重エッジの役割をさらに調査する(第3報)。
基本的に、我々の貢献は、効率的なLLM支援による協調的脆弱性修復プロセスを促進することである。
これらの実世界的な証拠は、LCMを実践的なプロセスに組み込むことによって、すべての利害関係者の協力を促進し、タスクの複雑さに応じてLSMの役割を再構築すると同時に、LCMが合理的な考え方で推進するユーザエンゲージメントの改善による短期的な副作用にアプローチすることを示唆している。
関連論文リスト
- Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - A Survey of Useful LLM Evaluation [20.048914787813263]
2段階フレームワーク:コア能力からエージェントへ」
コア能力」の段階では, LLMの推論能力, 社会的影響, ドメイン知識について議論した。
エージェントの段階では, LLMエージェントアプリケーションの動作, 計画, ツール学習の具体化を実演した。
論文 参考訳(メタデータ) (2024-06-03T02:20:03Z) - Towards Efficient LLM Grounding for Embodied Multi-Agent Collaboration [70.09561665520043]
本稿では,多エージェント協調のための新しいフレームワークを提案する。これは,効率的な自己調整のための強化アドバンテージフィードバック(Reinforced Advantage feedback, ReAd)を導入する。
強化学習における重み付き回帰を多エージェントシステムに拡張して理論的解析を行う。
Over-AIと難解なRoCoBenchの実験は、ReAdが成功率のベースラインを超え、エージェントの相互作用ステップを著しく減少させることを示している。
論文 参考訳(メタデータ) (2024-05-23T08:33:19Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - True Knowledge Comes from Practice: Aligning LLMs with Embodied
Environments via Reinforcement Learning [37.10401435242991]
大規模言語モデル(LLM)は、環境とのLLMにおける知識のミスアライメントにより、単純な意思決定タスクの解決に失敗することが多い。
本稿では,LSMを意思決定エージェントとして展開する新しいフレームワークであるTWOSOMEを提案する。
論文 参考訳(メタデータ) (2024-01-25T13:03:20Z) - LLaMA Rider: Spurring Large Language Models to Explore the Open World [36.261626047323695]
環境知識を継続的に獲得し、オープンな世界で適応する大規模言語モデルの能力は、いまだに不確実である。
オープンな世界を探索し,経験を収集し,課題解決能力の向上を学ぶために,LLMを刺激するアプローチを提案する。
オープンエンドのサンドボックス世界であるMinecraftでの評価により,LLaMA-Rider による環境探索における LLM の効率向上が実証された。
論文 参考訳(メタデータ) (2023-10-13T07:47:44Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。