論文の概要: From COBIT to ISO 42001: Evaluating Cybersecurity Frameworks for
Opportunities, Risks, and Regulatory Compliance in Commercializing Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.15770v1
- Date: Sat, 24 Feb 2024 09:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:01:46.491128
- Title: From COBIT to ISO 42001: Evaluating Cybersecurity Frameworks for
Opportunities, Risks, and Regulatory Compliance in Commercializing Large
Language Models
- Title(参考訳): COBITからISO 42001:大規模言語モデルの商業化における機会・リスク・規制コンプライアンスのためのサイバーセキュリティフレームワークの評価
- Authors: Timothy R. McIntosh, Teo Susnjak, Tong Liu, Paul Watters, Raza
Nowrozy, Malka N. Halgamuge
- Abstract要約: 本研究は,4つの主要なサイバーセキュリティガバナンス,リスク・アンド・コンプライアンス(GRC)フレームワーク - NIST 2.0, 2019, ISO:2022, そして最新のISO 42001:2023の統合準備について検討した。
LLMと人的専門家の両方のループで分析した結果、LLM統合の可能性と、LLMのリスク監視の欠如が明らかになった。
我々は,セキュアでコンプライアンスのよいLLM統合をサポートするために,サイバーセキュリティフレームワークの強化に欠かせない技術として,人間-専門家によるループ検証プロセスの統合を提案する。
- 参考スコア(独自算出の注目度): 5.454656183053655
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigated the integration readiness of four predominant
cybersecurity Governance, Risk and Compliance (GRC) frameworks - NIST CSF 2.0,
COBIT 2019, ISO 27001:2022, and the latest ISO 42001:2023 - for the
opportunities, risks, and regulatory compliance when adopting Large Language
Models (LLMs), using qualitative content analysis and expert validation. Our
analysis, with both LLMs and human experts in the loop, uncovered potential for
LLM integration together with inadequacies in LLM risk oversight of those
frameworks. Comparative gap analysis has highlighted that the new ISO
42001:2023, specifically designed for Artificial Intelligence (AI) management
systems, provided most comprehensive facilitation for LLM opportunities,
whereas COBIT 2019 aligned most closely with the impending European Union AI
Act. Nonetheless, our findings suggested that all evaluated frameworks would
benefit from enhancements to more effectively and more comprehensively address
the multifaceted risks associated with LLMs, indicating a critical and
time-sensitive need for their continuous evolution. We propose integrating
human-expert-in-the-loop validation processes as crucial for enhancing
cybersecurity frameworks to support secure and compliant LLM integration, and
discuss implications for the continuous evolution of cybersecurity GRC
frameworks to support the secure integration of LLMs.
- Abstract(参考訳): 本研究は,大規模言語モデル(LLM)を採用する際の機会,リスク,規制コンプライアンスについて,質的コンテンツ分析と専門家による検証を用いて,主要なサイバーセキュリティガバナンス・リスク・コンプライアンス(GRC)フレームワーク(NIST CSF 2.0,COBIT 2019,ISO 27001:2022,ISO 42001:2023)の統合性を検討した。
LLMと人的専門家の両方のループで分析した結果、LLM統合の可能性とLLMのリスク監視の不備が明らかになった。
ISO 42001:2023は、人工知能(AI)管理システム用に特別に設計されたもので、LCMの機会に対する最も包括的なファシリテーションを提供する一方、COBIT 2019は、迫り来る欧州連合のAI法と最も密接に一致している。
いずれにせよ, 評価されたフレームワークはすべて, LLMに関連する多面的リスクに対して, より効果的かつ包括的に対処するための拡張の恩恵を受けることが示唆された。
我々は,セキュアかつコンプライアンスの高いLCM統合をサポートするためのサイバーセキュリティフレームワークの強化に不可欠な,人間の専門知識による検証プロセスの統合を提案する。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large
Language Models [112.46733790998024]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Building Guardrails for Large Language Models [20.71365278201298]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z) - Risk Taxonomy, Mitigation, and Assessment Benchmarks of Large Language
Model Systems [29.828997665535336]
大規模言語モデル(LLM)は、多様な自然言語処理タスクを解く上で強力な能力を持つ。
しかし、LLMシステムの安全性とセキュリティの問題は、その広範な応用にとって大きな障害となっている。
本稿では,LLMシステムの各モジュールに関連する潜在的なリスクを体系的に分析する包括的分類法を提案する。
論文 参考訳(メタデータ) (2024-01-11T09:29:56Z) - Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Walking a Tightrope -- Evaluating Large Language Models in High-Risk
Domains [15.320563604087246]
リスクの高いドメインは、正確で安全な応答を提供するために言語モデルを必要とするユニークな課題を提起する。
大規模言語モデル(LLM)が大成功を収めたにもかかわらず、ハイリスク領域でのそれらのパフォーマンスはいまだに不明である。
論文 参考訳(メタデータ) (2023-11-25T08:58:07Z) - Decomposing Uncertainty for Large Language Models through Input
Clarification Ensembling [74.00331519233026]
大規模言語モデル(LLM)のための不確実性分解フレームワークを提案する。
我々のフレームワークは入力の一連の明確化を生成し、それらを固定LLMに入力し、対応する予測をアンサンブルする。
実験により,提案手法は様々なタスクに対して正確かつ確実な不確実性定量化を提供することを示した。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Building Resilient SMEs: Harnessing Large Language Models for Cyber
Security in Australia [0.0]
オーストラリアの中小企業では、サイバー脅威に対する脆弱性が増加している。
人工知能(AI)、機械学習(ML)、大規模言語モデル(LLM)は、オーストラリアの中小企業のサイバーセキュリティポリシーを強化する可能性がある。
本研究は、オーストラリアの中小企業におけるサイバーセキュリティ政策の強化におけるLLMの役割について、包括的理解を提供する。
論文 参考訳(メタデータ) (2023-06-05T06:01:00Z) - A Survey of Safety and Trustworthiness of Large Language Models through
the Lens of Verification and Validation [21.242078120036176]
大規模言語モデル(LLM)は、エンドユーザーと人間レベルの会話を行う能力のために、AIの新たな熱波を爆発させた。
この調査は、産業応用における安全性と信頼性に関するものである。
論文 参考訳(メタデータ) (2023-05-19T02:41:12Z) - Safety Assessment of Chinese Large Language Models [51.83369778259149]
大規模言語モデル(LLM)は、侮辱や差別的なコンテンツを生成し、誤った社会的価値を反映し、悪意のある目的のために使用されることがある。
安全で責任があり倫理的なAIの展開を促進するため、LLMによる100万の強化プロンプトとレスポンスを含むセーフティプロンプトをリリースする。
論文 参考訳(メタデータ) (2023-04-20T16:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。