論文の概要: A Survey of Large Language Models in Cybersecurity
- arxiv url: http://arxiv.org/abs/2402.16968v1
- Date: Mon, 26 Feb 2024 19:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 18:52:38.120822
- Title: A Survey of Large Language Models in Cybersecurity
- Title(参考訳): サイバーセキュリティにおける大規模言語モデルの検討
- Authors: Gabriel de Jesus Coelho da Silva, Carlos Becker Westphall
- Abstract要約: 大規模言語モデル(LLM)は、自然言語を処理しながら様々な分野における最先端の処理を行う能力により、急速に普及している。
この調査は、サイバーセキュリティのLLMがすでに適用されている分野、使用方法、分野における制限の特定を目的としている。
- 参考スコア(独自算出の注目度): 0.5221459608786241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have quickly risen to prominence due to their
ability to perform at or close to the state-of-the-art in a variety of fields
while handling natural language. An important field of research is the
application of such models at the cybersecurity context. This survey aims to
identify where in the field of cybersecurity LLMs have already been applied,
the ways in which they are being used and their limitations in the field.
Finally, suggestions are made on how to improve such limitations and what can
be expected from these systems once these limitations are overcome.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自然言語を処理しながら様々な分野における最先端の処理を行う能力により、急速に普及している。
重要な研究分野は、サイバーセキュリティの文脈におけるそのようなモデルの応用である。
この調査は、サイバーセキュリティ分野のllmがすでに適用されている場所、使われている方法、分野における制限を特定することを目的としている。
最後に、このような制限をいかに改善するか、これらの制限を克服したら、これらのシステムから何が期待できるかについて提案する。
関連論文リスト
- Navigating the Risks: A Survey of Security, Privacy, and Ethics Threats in LLM-Based Agents [67.07177243654485]
この調査は、大規模言語モデルに基づくエージェントが直面するさまざまな脅威を収集、分析する。
LLMをベースとしたエージェントの6つの重要な特徴を概説する。
4つの代表エージェントをケーススタディとして選択し,実践的に直面する可能性のあるリスクを分析した。
論文 参考訳(メタデータ) (2024-11-14T15:40:04Z) - Unique Security and Privacy Threats of Large Language Model: A Comprehensive Survey [46.19229410404056]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
これらのモデルは、強力な言語理解と生成能力を示すために、広大なデータセットでトレーニングされている。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z) - Privacy Preserving Prompt Engineering: A Survey [14.402638881376419]
事前学習された言語モデル(PLM)は、広範囲の自然言語処理(NLP)タスクを解くのに非常に有能である。
その結果、これらのモデルのサイズは近年顕著に拡大している。
プライバシーに関する懸念は、広く使われている中で大きな障害となっている。
論文 参考訳(メタデータ) (2024-04-09T04:11:25Z) - Large Language Models in Cybersecurity: State-of-the-Art [4.990712773805833]
大規模言語モデル(LLM)の台頭は、私たちの知性の理解に革命をもたらした。
本研究は, サイバーセキュリティの領域におけるLLMの防衛的, 敵的応用の徹底的な評価を, 既存の文献を考察した。
論文 参考訳(メタデータ) (2024-01-30T16:55:25Z) - Security and Privacy Challenges of Large Language Models: A Survey [2.6986500640871482]
LLM(Large Language Models)は、テキストの生成や要約、言語翻訳、質問応答など、非常に優れた機能を示し、複数の分野に貢献している。
これらのモデルは、Jailbreak攻撃、データ中毒攻撃、Personally Identible Information(PII)漏洩攻撃など、セキュリティやプライバシ攻撃にも脆弱である。
この調査では、トレーニングデータとユーザの両方に対するLLMのセキュリティとプライバシの課題と、輸送、教育、医療といったさまざまな領域におけるアプリケーションベースのリスクについて、徹底的にレビューする。
論文 参考訳(メタデータ) (2024-01-30T04:00:54Z) - LLMs for Multi-Modal Knowledge Extraction and Analysis in
Intelligence/Safety-Critical Applications [0.0]
近年,大規模言語モデルの性能向上が急速に進んでいる。
このようなモデルを多種多様なアプリケーションで使用するという強い需要がある。
しかし、未解決の脆弱性や制限のため、インテリジェンスやセーフティクリティカルなアプリケーションに適用する前には、非常に注意が必要である。
論文 参考訳(メタデータ) (2023-12-05T19:04:50Z) - A Survey of Confidence Estimation and Calibration in Large Language Models [86.692994151323]
大規模言語モデル(LLM)は、様々な領域において幅広いタスクにまたがる顕著な機能を示している。
印象的なパフォーマンスにもかかわらず、彼らは世代内の事実上の誤りのために信頼できない。
信頼度を評価し、異なるタスクで調整することで、リスクを軽減し、LLMがより良い世代を創出できるようになります。
論文 参考訳(メタデータ) (2023-11-14T16:43:29Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。