論文の概要: Cross-Border Data Security and Privacy Risks in Large Language Models and IoT Systems
- arxiv url: http://arxiv.org/abs/2601.06612v1
- Date: Sat, 10 Jan 2026 16:21:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.901215
- Title: Cross-Border Data Security and Privacy Risks in Large Language Models and IoT Systems
- Title(参考訳): 大規模言語モデルとIoTシステムにおけるクロスボーダーデータセキュリティとプライバシリスク
- Authors: Chalitha Handapangoda,
- Abstract要約: 本研究は,ローカライズされた暗号化,適応型微分プライバシー,リアルタイムコンプライアンスアサーションを統合したJurisdiction-Aware, Privacy-by-Designアーキテクチャを提案する。
マルチパラメータシミュレーションにおける実証的な検証は、このアーキテクチャが不正なデータ露出を5%以下に減らし、コンプライアンス違反をゼロにすることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The reliance of Large Language Models and Internet of Things systems on massive, globally distributed data flows creates systemic security and privacy challenges. When data traverses borders, it becomes subject to conflicting legal regimes, such as the EU's General Data Protection Regulation and China's Personal Information Protection Law, compounded by technical vulnerabilities like model memorization. Current static encryption and data localization methods are fragmented and reactive, failing to provide adequate, policy-aligned safeguards. This research proposes a Jurisdiction-Aware, Privacy-by-Design architecture that dynamically integrates localized encryption, adaptive differential privacy, and real-time compliance assertion via cryptographic proofs. Empirical validation in a multi-jurisdictional simulation demonstrates this architecture reduced unauthorized data exposure to below five percent and achieved zero compliance violations. These security gains were realized while maintaining model utility retention above ninety percent and limiting computational overhead. This establishes that proactive, integrated controls are feasible for secure and globally compliant AI deployment.
- Abstract(参考訳): 大規模言語モデルとモノのインターネットシステムの大規模でグローバルに分散したデータフローへの依存は、システムのセキュリティとプライバシの課題を生み出します。
データが国境を横切ると、EUの一般データ保護規則や中国の個人情報保護法など、モデル記憶のような技術的な脆弱性が混在する法体制が対立する。
現在の静的暗号化とデータローカライゼーションメソッドは断片化され、リアクティブであり、適切なポリシーに準拠したセーフガードを提供していない。
本研究は、局所暗号化、適応微分プライバシー、および暗号証明によるリアルタイムコンプライアンスアサーションを動的に統合する、Jurisdiction-Aware, Privacy-by-Designアーキテクチャを提案する。
マルチパラメータシミュレーションにおける実証的な検証は、このアーキテクチャが不正なデータ露出を5%以下に減らし、コンプライアンス違反をゼロにすることを示した。
これらのセキュリティ向上は、モデルユーティリティ保持を90%以上維持し、計算オーバーヘッドを制限しながら実現された。
これにより、セキュアでグローバルに準拠したAIデプロイメントに対して、積極的に統合されたコントロールが実現可能であることが証明される。
関連論文リスト
- Rethinking Data Protection in the (Generative) Artificial Intelligence Era [138.07763415496288]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Privacy-Aware RAG: Secure and Isolated Knowledge Retrieval [7.412110686946628]
本稿では,RAGシステムを不正アクセスやデータ漏洩から保護するための高度な暗号化手法を提案する。
当社のアプローチでは、ストレージに先立ってテキストコンテンツとそれに対応する埋め込みの両方を暗号化し、すべてのデータがセキュアに暗号化されていることを保証します。
以上の結果から,RAGシステムの設計と展開に高度な暗号化技術を統合することにより,プライバシー保護を効果的に強化できることが示唆された。
論文 参考訳(メタデータ) (2025-03-17T07:45:05Z) - Adaptive PII Mitigation Framework for Large Language Models [2.694044579874688]
本稿では,PII(Personally Identible Information)とSPI(Sensitive Personal Information)のリスク軽減のための適応システムを提案する。
このシステムは、高度なNLP技術、文脈認識分析、およびポリシー駆動マスキングを使用して、規制コンプライアンスを保証する。
ベンチマークではシステムの有効性が強調され、パスポート番号のF1スコアは0.95である。
論文 参考訳(メタデータ) (2025-01-21T19:22:45Z) - ACRIC: Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
安全クリティカルな業界における最近のセキュリティインシデントは、適切なメッセージ認証の欠如により、攻撃者が悪意のあるコマンドを注入したり、システムの振る舞いを変更することができることを明らかにした。
これらの欠点は、サイバーセキュリティを強化するために圧力をかける必要性を強調する新しい規制を引き起こしている。
我々は,レガシ産業通信をセキュアにするためのメッセージ認証ソリューションであるACRICを紹介する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。