論文の概要: Toward Secure and Compliant AI: Organizational Standards and Protocols for NLP Model Lifecycle Management
- arxiv url: http://arxiv.org/abs/2512.22060v1
- Date: Fri, 26 Dec 2025 15:28:20 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:51:49.052025
- Title: Toward Secure and Compliant AI: Organizational Standards and Protocols for NLP Model Lifecycle Management
- Title(参考訳): セキュアでコンプライアンスなAIを目指して - NLPモデルライフサイクル管理のための組織標準とプロトコル
- Authors: Sunil Arora, John Hastings,
- Abstract要約: 本稿では, Secure and Compliant NLP Lifecycle Management Framework (SC-NLP-LMF)を紹介する。
このフレームワークは、NLPシステムの開発から引退までの安全な運用を保証するように設計されている。
バイアス検出、プライバシ保護、セキュアなデプロイメント、説明可能性、セキュアなモデル廃止のための確立された方法を統合する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Natural Language Processing (NLP) systems are increasingly used in sensitive domains such as healthcare, finance, and government, where they handle large volumes of personal and regulated data. However, these systems introduce distinct risks related to security, privacy, and regulatory compliance that are not fully addressed by existing AI governance frameworks. This paper introduces the Secure and Compliant NLP Lifecycle Management Framework (SC-NLP-LMF), a comprehensive six-phase model designed to ensure the secure operation of NLP systems from development to retirement. The framework, developed through a systematic PRISMA-based review of 45 peer-reviewed and regulatory sources, aligns with leading standards, including NIST AI RMF, ISO/IEC 42001:2023, the EU AI Act, and MITRE ATLAS. It integrates established methods for bias detection, privacy protection (differential privacy, federated learning), secure deployment, explainability, and secure model decommissioning. A healthcare case study illustrates how SC-NLP-LMF detects emerging terminology drift (e.g., COVID-related language) and guides compliant model updates. The framework offers organizations a practical, lifecycle-wide structure for developing, deploying, and maintaining secure and accountable NLP systems in high-risk environments.
- Abstract(参考訳): 自然言語処理(NLP)システムは、医療、金融、政府などの機密性の高い分野において、大量の個人および規制されたデータを処理している。
しかしながら、これらのシステムは、既存のAIガバナンスフレームワークで完全に対処されていない、セキュリティ、プライバシ、規制コンプライアンスに関連する、明確なリスクを導入します。
本稿では,NLPシステムの開発から引退までの安全な運用を保証するため,総合的な6段階モデルであるSecure and Compliant NLP Lifecycle Management Framework (SC-NLP-LMF)を紹介する。
このフレームワークは、45のピアレビューおよび規制ソースの体系的なレビューを通じて開発され、NIST AI RMF、ISO/IEC 42001:2023、EU AI Act、MITRE ATLASなどの主要な標準と一致している。
バイアス検出、プライバシ保護(差分プライバシー、フェデレーション学習)、セキュアなデプロイメント、説明可能性、セキュアなモデル廃止のための確立された方法を統合する。
医療ケーススタディでは、SC-NLP-LMFが出現する用語の漂流(例えば、COVID関連言語)を検出し、モデル更新をガイドする方法が示されている。
このフレームワークは、リスクの高い環境でセキュアで説明責任のあるNLPシステムを開発、デプロイ、保守するための、実践的でライフサイクル全体の構造を提供する。
関連論文リスト
- Safety Compliance: Rethinking LLM Safety Reasoning through the Lens of Compliance [49.50518009960314]
既存の安全手法はアドホックな分類に依存しており、厳格で体系的な保護を欠いている。
我々は,法規を組み込んだ現実的なLLM安全シナリオを生成することで,安全コンプライアンスのための新しいベンチマークを開発する。
本実験は,新しいベンチマークにおいて,コンプライアンス・リゾネータが優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-09-26T12:11:29Z) - Bridging the Mobile Trust Gap: A Zero Trust Framework for Consumer-Facing Applications [51.56484100374058]
本稿では,信頼できないユーザ制御環境で動作するモバイルアプリケーションを対象としたZero Trustモデルを提案する。
デザインサイエンスの方法論を用いて、この研究は、実行時の信頼の強制をサポートする6つのピラーフレームワークを導入した。
提案したモデルは,デプロイ前コントロールを越えてモバイルアプリケーションをセキュアにするための,実用的で標準に準拠したアプローチを提供する。
論文 参考訳(メタデータ) (2025-08-20T18:42:36Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Adaptive PII Mitigation Framework for Large Language Models [2.694044579874688]
本稿では,PII(Personally Identible Information)とSPI(Sensitive Personal Information)のリスク軽減のための適応システムを提案する。
このシステムは、高度なNLP技術、文脈認識分析、およびポリシー駆動マスキングを使用して、規制コンプライアンスを保証する。
ベンチマークではシステムの有効性が強調され、パスポート番号のF1スコアは0.95である。
論文 参考訳(メタデータ) (2025-01-21T19:22:45Z) - Privacy-Preserving Customer Support: A Framework for Secure and Scalable Interactions [0.0]
本稿では,大規模言語モデル(LLM)をゼロショット学習モードで活用する新しいアプローチとして,プライバシー保護ゼロショット学習(PP-ZSL)フレームワークを提案する。
従来の機械学習手法とは異なり、PP-ZSLは、事前学習されたLLMを使用して直接応答を生成することで、機密データに対する局所的なトレーニングを不要にしている。
このフレームワークには、リアルタイムデータ匿名化による機密情報の修正やマスク、ドメイン固有のクエリ解決のための検索強化生成(RAG)、規制基準の遵守を保証するための堅牢な後処理が含まれている。
論文 参考訳(メタデータ) (2024-12-10T17:20:47Z) - Trustworthy AI: Securing Sensitive Data in Large Language Models [0.0]
大規模言語モデル(LLM)は、堅牢なテキスト生成と理解を可能にすることで自然言語処理(NLP)を変革した。
本稿では, 機密情報の開示を動的に制御するために, 信頼機構をLCMに組み込むための包括的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-26T19:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。