論文の概要: Large Language Models as a (Bad) Security Norm in the Context of Regulation and Compliance
- arxiv url: http://arxiv.org/abs/2512.16419v1
- Date: Thu, 18 Dec 2025 11:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.027609
- Title: Large Language Models as a (Bad) Security Norm in the Context of Regulation and Compliance
- Title(参考訳): 規則とコンプライアンスの文脈における(バッド)セキュリティノームとしての大規模言語モデル
- Authors: Kaspar Rosager Ludvigsen,
- Abstract要約: 本稿では、セキュリティインフラストラクチャの設計と展開に使用する場合、AIがサイバーセキュリティと法律に悪影響を及ぼすかを問う。
本稿では,セキュリティにおけるLarge Language Models (LLM)の使用について論じる。
その後、欧州連合(EU)からのさまざまな法的サイバーセキュリティ義務であるサイバーセキュリティの規範を列挙し、参照の枠組みを創出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of Large Language Models (LLM) by providers of cybersecurity and digital infrastructures of all kinds is an ongoing development. It is suggested and on an experimental basis used to write the code for the systems, and potentially fed with sensitive data or what would otherwise be considered trade secrets. Outside of these obvious points, this paper asks how AI can negatively affect cybersecurity and law when used for the design and deployment of security infrastructure by its developers. Firstly, the paper discusses the use of LLMs in security, either directly or indirectly, and briefly tackles other types of AI. It then lists norms in cybersecurity, then a range of legal cybersecurity obligations from the European Union, to create a frame of reference. Secondly, the paper describes how LLMs may fail to fulfil both legal obligations and best practice in cybersecurity is given, and the paper ends with some economic and practical consequences for this development, with some notions of solutions as well. The paper finds that using LLMs comes with many risks, many of which are against good security practice, and the legal obligations in security regulation. This is because of the inherent weaknesses of LLMs, most of which are mitigated if replaced with symbolic AI. Both also have issues fulfilling basic traceability obligations and practice. Solutions are secondary systems surrounding LLM based AI, fulfilment of security norms beyond legal requirements and simply not using such technology in certain situations.
- Abstract(参考訳): サイバーセキュリティとデジタルインフラのプロバイダによるLLM(Large Language Models)の使用は、現在進行中の開発である。
提案され、実験的にシステムのコードを記述するために使用され、機密性の高いデータや、それ以外は取引秘密と見なされるものによってもたらされる可能性がある。
これらの明らかな点とは別に、この論文は、開発者がセキュリティインフラストラクチャの設計と展開に使用する場合、AIがサイバーセキュリティと法律に悪影響を及ぼすかを問う。
まず、セキュリティにおけるLLMの使用について、直接的または間接的に論じ、他のタイプのAIに短時間に取り組む。
その後、欧州連合(EU)からのさまざまな法的サイバーセキュリティ義務であるサイバーセキュリティの規範を列挙し、参照の枠組みを創出する。
第二に、LLMがサイバーセキュリティにおける法的義務とベストプラクティスの両方を満たさない可能性について述べ、この論文は、いくつかのソリューションの概念とともに、この発展のための経済的および実践的な結果で終わる。
この論文は、LSMの使用には多くのリスクが伴い、その多くが優れたセキュリティ慣行やセキュリティ規制の法的義務に反するものであることを指摘している。
これは、LLMの本質的な弱点のためであり、そのほとんどが象徴的なAIに置き換えられた場合に緩和される。
どちらも、基本的なトレーサビリティの義務とプラクティスを満たす問題も抱えています。
ソリューションとは、LLMベースのAIを取り巻く二次システムであり、法的要件を超えたセキュリティ規範の充足であり、特定の状況ではそのような技術を使用しない。
関連論文リスト
- Large Language Models for Cyber Security [0.0]
本稿では,大規模言語モデルのサイバーセキュリティツールやプロトコルへの統合について検討する。
本稿で論じている主な問題は、従来のルールベースおよび署名ベースのセキュリティシステムが、現代のAIによるサイバー脅威に対処するには不十分であることだ。
論文 参考訳(メタデータ) (2025-11-06T16:25:35Z) - A.S.E: A Repository-Level Benchmark for Evaluating Security in AI-Generated Code [49.009041488527544]
A.S.Eは、AI生成コードのセキュリティを評価するためのリポジトリレベルの評価ベンチマークである。
現在の大規模言語モデル(LLM)は、セキュアなコーディングに苦戦している。
大きな推論予算は、必ずしもより良いコード生成につながるとは限らない。
論文 参考訳(メタデータ) (2025-08-25T15:11:11Z) - From Promise to Peril: Rethinking Cybersecurity Red and Blue Teaming in the Age of LLMs [5.438441265064793]
大規模言語モデル(LLM)は、赤と青のチーム操作を増強することでサイバーセキュリティを再構築する。
このポジションペーパーは、MITRE ATT&CKやNIST Cybersecurity Framework (CSF)のようなサイバーセキュリティフレームワークにまたがってLLMアプリケーションをマッピングする。
主な制限は幻覚、文脈保持の制限、推論の低さ、プロンプトに対する感受性である。
我々は,人間のループ監視の維持,モデル説明可能性の向上,プライバシ保護機構の統合,敵対的搾取に頑健なシステムの構築を推奨する。
論文 参考訳(メタデータ) (2025-06-16T12:52:19Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Automated Consistency Analysis of LLMs [0.1747820331822631]
大きな言語モデル(LLM)を備えたジェネレーティブAIは、業界、アカデミック、政府で広く採用されている。
LLMの信頼性と信頼性に対する重要な課題の1つは、LLMがその応答においていかに一貫性があるかである。
本稿では,複数のLSM間での自己検証と検証という,一貫性を検証するための2つの手法を提案する。
論文 参考訳(メタデータ) (2025-02-10T21:03:24Z) - Emerging Security Challenges of Large Language Models [6.151633954305939]
大規模言語モデル(LLM)は、多くの異なる分野において短期間で記録的な普及を遂げた。
これらは、特定の下流タスクに合わせて調整されることなく、多様なデータでトレーニングされたオープンエンドモデルである。
従来の機械学習(ML)モデルは、敵の攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2024-12-23T14:36:37Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。