論文の概要: Building Resilient SMEs: Harnessing Large Language Models for Cyber
Security in Australia
- arxiv url: http://arxiv.org/abs/2306.02612v1
- Date: Mon, 5 Jun 2023 06:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:38:44.560357
- Title: Building Resilient SMEs: Harnessing Large Language Models for Cyber
Security in Australia
- Title(参考訳): レジリエントな中小企業の構築 - オーストラリアのサイバーセキュリティのための大規模言語モデルの構築
- Authors: Benjamin Kereopa-Yorke
- Abstract要約: オーストラリアの中小企業では、サイバー脅威に対する脆弱性が増加している。
人工知能(AI)、機械学習(ML)、大規模言語モデル(LLM)は、オーストラリアの中小企業のサイバーセキュリティポリシーを強化する可能性がある。
本研究は、オーストラリアの中小企業におけるサイバーセキュリティ政策の強化におけるLLMの役割について、包括的理解を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The escalating digitalisation of our lives and enterprises has led to a
parallel growth in the complexity and frequency of cyber-attacks. Small and
medium-sized enterprises (SMEs), particularly in Australia, are experiencing
increased vulnerability to cyber threats, posing a significant challenge to the
nation's cyber security landscape. Embracing transformative technologies such
as Artificial Intelligence (AI), Machine Learning (ML) and Large Language
Models (LLMs) can potentially strengthen cyber security policies for Australian
SMEs. However, their practical application, advantages, and limitations remain
underexplored, with prior research mainly focusing on large corporations. This
study aims to address this gap by providing a comprehensive understanding of
the potential role of LLMs in enhancing cyber security policies for Australian
SMEs. Employing a mixed-methods study design, this research includes a
literature review, qualitative analysis of SME case studies, and a quantitative
assessment of LLM performance metrics in cyber security applications. The
findings highlight the promising potential of LLMs across various performance
criteria, including relevance, accuracy, and applicability, though gaps remain
in areas such as completeness and clarity. The study underlines the importance
of integrating human expertise with LLM technology and refining model
development to address these limitations. By proposing a robust conceptual
framework guiding the effective adoption of LLMs, this research aims to
contribute to a safer and more resilient cyber environment for Australian SMEs,
enabling sustainable growth and competitiveness in the digital era.
- Abstract(参考訳): 私たちの生活と企業のデジタル化は、サイバー攻撃の複雑さと頻度の同時成長に繋がった。
中小企業、特にオーストラリアでは、サイバーの脅威に対する脆弱性が増加しており、国のサイバーセキュリティの状況にとって大きな課題となっている。
人工知能(AI)や機械学習(ML)、Large Language Models(LLM)といった変革的技術を採用することで、オーストラリアの中小企業のサイバーセキュリティポリシーを強化する可能性がある。
しかし、その実用的応用、利点、限界は未解明のままであり、先行研究は主に大企業に焦点をあてている。
本研究は, オーストラリアの中小企業におけるサイバーセキュリティ政策の強化において, LLMの潜在的な役割を包括的に理解することで, このギャップに対処することを目的とする。
本研究は, 複合メソッド研究設計を用いて, 文献レビュー, 中小企業事例研究の質的分析, サイバーセキュリティアプリケーションにおけるLCMパフォーマンス指標の定量的評価を含む。
この結果は, 信頼性, 正確性, 適用性など, 様々な性能基準にまたがるLCMの有望な可能性を示しているが, 完全性や明確性などの領域にはギャップが残っている。
この研究は、人間の専門知識をllm技術に統合し、これらの制限に対処するためにモデル開発を洗練することの重要性を強調している。
本研究は, LLMを効果的に採用するための堅牢な概念的枠組みを提案することにより, オーストラリアの中小企業にとってより安全でレジリエントなサイバー環境に寄与し, デジタル時代の持続的な成長と競争性を実現することを目的とする。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Large Language Models in Cybersecurity: State-of-the-Art [4.990712773805833]
大規模言語モデル(LLM)の台頭は、私たちの知性の理解に革命をもたらした。
本研究は, サイバーセキュリティの領域におけるLLMの防衛的, 敵的応用の徹底的な評価を, 既存の文献を考察した。
論文 参考訳(メタデータ) (2024-01-30T16:55:25Z) - Purple Llama CyberSecEval: A Secure Coding Benchmark for Language Models [41.068780235482514]
本稿では,Large Language Models (LLMs) のプログラミングアシスタントとしてのサイバーセキュリティを促進するために開発された,包括的なベンチマークであるCyberSecEvalを提案する。
CyberSecEvalは、2つの重要なセキュリティ領域におけるLSMの徹底的な評価を提供する。
論文 参考訳(メタデータ) (2023-12-07T22:07:54Z) - Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - Identifying and Mitigating Privacy Risks Stemming from Language Models:
A Survey [47.04394421368761]
言語モデル(LM)には、プライバシーなど、さまざまなリスクがある。
LMが普及するにつれて、このようなプライバシーのリスクと、どのように緩和されるかを理解することが不可欠である。
LMプライバシに関する最初の技術調査を示す。
論文 参考訳(メタデータ) (2023-09-27T15:15:23Z) - Cyber Security Requirements for Platforms Enhancing AI Reproducibility [0.0]
本研究は、人工知能(AI)の分野に焦点を当て、AIプラットフォームを評価するための新しいフレームワークを紹介する。
Floydhub、BEAT、Codalab、Kaggle、OpenMLの5つの人気AIプラットフォームが評価された。
この分析によると、これらのプラットフォームはいずれも、必要なサイバーセキュリティ対策を完全に組み込んでいない。
論文 参考訳(メタデータ) (2023-09-27T09:43:46Z) - A Review of Machine Learning-based Security in Cloud Computing [5.384804060261833]
クラウドコンピューティング(CC)は、ITリソースのユーザへの提供方法に革命をもたらしている。
CCの成長に伴い、可用性、完全性、機密性への脅威など、セキュリティ上のリスクが多数発生している。
機械学習(ML)は、セキュリティ問題の特定と解決における人間の介入を減らすために、クラウドサービスプロバイダ(CSP)によってますます利用されている。
論文 参考訳(メタデータ) (2023-09-10T01:52:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。