論文の概要: From COBIT to ISO 42001: Evaluating Cybersecurity Frameworks for
Opportunities, Risks, and Regulatory Compliance in Commercializing Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.15770v1
- Date: Sat, 24 Feb 2024 09:06:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 17:01:46.491128
- Title: From COBIT to ISO 42001: Evaluating Cybersecurity Frameworks for
Opportunities, Risks, and Regulatory Compliance in Commercializing Large
Language Models
- Title(参考訳): COBITからISO 42001:大規模言語モデルの商業化における機会・リスク・規制コンプライアンスのためのサイバーセキュリティフレームワークの評価
- Authors: Timothy R. McIntosh, Teo Susnjak, Tong Liu, Paul Watters, Raza
Nowrozy, Malka N. Halgamuge
- Abstract要約: 本研究は,4つの主要なサイバーセキュリティガバナンス,リスク・アンド・コンプライアンス(GRC)フレームワーク - NIST 2.0, 2019, ISO:2022, そして最新のISO 42001:2023の統合準備について検討した。
LLMと人的専門家の両方のループで分析した結果、LLM統合の可能性と、LLMのリスク監視の欠如が明らかになった。
我々は,セキュアでコンプライアンスのよいLLM統合をサポートするために,サイバーセキュリティフレームワークの強化に欠かせない技術として,人間-専門家によるループ検証プロセスの統合を提案する。
- 参考スコア(独自算出の注目度): 5.454656183053655
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigated the integration readiness of four predominant
cybersecurity Governance, Risk and Compliance (GRC) frameworks - NIST CSF 2.0,
COBIT 2019, ISO 27001:2022, and the latest ISO 42001:2023 - for the
opportunities, risks, and regulatory compliance when adopting Large Language
Models (LLMs), using qualitative content analysis and expert validation. Our
analysis, with both LLMs and human experts in the loop, uncovered potential for
LLM integration together with inadequacies in LLM risk oversight of those
frameworks. Comparative gap analysis has highlighted that the new ISO
42001:2023, specifically designed for Artificial Intelligence (AI) management
systems, provided most comprehensive facilitation for LLM opportunities,
whereas COBIT 2019 aligned most closely with the impending European Union AI
Act. Nonetheless, our findings suggested that all evaluated frameworks would
benefit from enhancements to more effectively and more comprehensively address
the multifaceted risks associated with LLMs, indicating a critical and
time-sensitive need for their continuous evolution. We propose integrating
human-expert-in-the-loop validation processes as crucial for enhancing
cybersecurity frameworks to support secure and compliant LLM integration, and
discuss implications for the continuous evolution of cybersecurity GRC
frameworks to support the secure integration of LLMs.
- Abstract(参考訳): 本研究は,大規模言語モデル(LLM)を採用する際の機会,リスク,規制コンプライアンスについて,質的コンテンツ分析と専門家による検証を用いて,主要なサイバーセキュリティガバナンス・リスク・コンプライアンス(GRC)フレームワーク(NIST CSF 2.0,COBIT 2019,ISO 27001:2022,ISO 42001:2023)の統合性を検討した。
LLMと人的専門家の両方のループで分析した結果、LLM統合の可能性とLLMのリスク監視の不備が明らかになった。
ISO 42001:2023は、人工知能(AI)管理システム用に特別に設計されたもので、LCMの機会に対する最も包括的なファシリテーションを提供する一方、COBIT 2019は、迫り来る欧州連合のAI法と最も密接に一致している。
いずれにせよ, 評価されたフレームワークはすべて, LLMに関連する多面的リスクに対して, より効果的かつ包括的に対処するための拡張の恩恵を受けることが示唆された。
我々は,セキュアかつコンプライアンスの高いLCM統合をサポートするためのサイバーセキュリティフレームワークの強化に不可欠な,人間の専門知識による検証プロセスの統合を提案する。
関連論文リスト
- Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - SafeBench: A Safety Evaluation Framework for Multimodal Large Language Models [75.67623347512368]
MLLMの安全性評価を行うための総合的なフレームワークであるツールンを提案する。
我々のフレームワークは、包括的な有害なクエリデータセットと自動評価プロトコルで構成されています。
本研究では,広く利用されている15のオープンソースMLLMと6つの商用MLLMの大規模実験を行った。
論文 参考訳(メタデータ) (2024-10-24T17:14:40Z) - Towards Assuring EU AI Act Compliance and Adversarial Robustness of LLMs [1.368472250332885]
大規模な言語モデルは誤用しがちで、セキュリティの脅威に弱い。
欧州連合の人工知能法は、特定の文脈においてAIの堅牢性を強制しようとするものである。
論文 参考訳(メタデータ) (2024-10-04T18:38:49Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Ollabench: Evaluating LLMs' Reasoning for Human-centric Interdependent Cybersecurity [0.0]
大規模言語モデル(LLM)は、複雑な相互依存型サイバーセキュリティシステムを表現することによってエージェントベースモデリングを強化する可能性がある。
既存の評価フレームワークは、しばしば、相互依存型サイバーセキュリティに不可欠なヒューマンファクターと認知コンピューティング能力を見落としている。
シナリオベースの情報セキュリティコンプライアンスや非コンプライアンス問題に答える上で,LLMの正確性,無駄性,一貫性を評価する新しい評価フレームワークであるOllaBenchを提案する。
論文 参考訳(メタデータ) (2024-06-11T00:35:39Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - Mapping LLM Security Landscapes: A Comprehensive Stakeholder Risk Assessment Proposal [0.0]
本稿では,従来のシステムにおけるリスク評価手法のようなツールを用いたリスク評価プロセスを提案する。
我々は、潜在的な脅威要因を特定し、脆弱性要因に対して依存するシステムコンポーネントをマッピングするためのシナリオ分析を行う。
3つの主要株主グループに対する脅威もマップ化しています。
論文 参考訳(メタデータ) (2024-03-20T05:17:22Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Walking a Tightrope -- Evaluating Large Language Models in High-Risk
Domains [15.320563604087246]
リスクの高いドメインは、正確で安全な応答を提供するために言語モデルを必要とするユニークな課題を提起する。
大規模言語モデル(LLM)が大成功を収めたにもかかわらず、ハイリスク領域でのそれらのパフォーマンスはいまだに不明である。
論文 参考訳(メタデータ) (2023-11-25T08:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。