論文の概要: Brain Surgery: Ensuring GDPR Compliance in Large Language Models via Concept Erasure
- arxiv url: http://arxiv.org/abs/2409.14603v1
- Date: Sun, 22 Sep 2024 21:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 21:57:16.605486
- Title: Brain Surgery: Ensuring GDPR Compliance in Large Language Models via Concept Erasure
- Title(参考訳): 脳外科:概念消去による大規模言語モデルにおけるGDPRコンプライアンスの確保
- Authors: Michele Laurelli,
- Abstract要約: 本稿では、リアルタイムな未学習を実現することによって、すべての局所的なAIモデルを読み取るための変革的手法である脳手術を紹介する。
Brain Surgeryは、さまざまなAIアーキテクチャにデプロイ可能なモジュラーソリューションを提供する。
このツールは、プライバシ規則の遵守を保証するだけでなく、ユーザが自身のプライバシ制限を定義できるようにし、AI倫理とガバナンスの新しいパラダイムを作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As large-scale AI systems proliferate, ensuring compliance with data privacy laws such as the General Data Protection Regulation (GDPR) has become critical. This paper introduces Brain Surgery, a transformative methodology for making every local AI model GDPR-ready by enabling real-time privacy management and targeted unlearning. Building on advanced techniques such as Embedding-Corrupted Prompts (ECO Prompts), blockchain-based privacy management, and privacy-aware continual learning, Brain Surgery provides a modular solution that can be deployed across various AI architectures. This tool not only ensures compliance with privacy regulations but also empowers users to define their own privacy limits, creating a new paradigm in AI ethics and governance.
- Abstract(参考訳): 大規模なAIシステムが普及するにつれて、GDPR(General Data Protection Regulation)のようなデータプライバシ規則の遵守が重要になっている。
本稿では、リアルタイムプライバシ管理とターゲット未学習を可能にすることにより、すべてのローカルAIモデルGDPR対応化のための変革的手法であるBrain Surgeryを紹介する。
Embedding-Corrupted Prompts (ECO Prompts)、ブロックチェーンベースのプライバシ管理、プライバシを意識した継続的学習といった高度な技術に基づいて、Brain Surgeryは、さまざまなAIアーキテクチャにデプロイ可能なモジュラーソリューションを提供する。
このツールは、プライバシ規則の遵守を保証するだけでなく、ユーザが自身のプライバシ制限を定義できるようにし、AI倫理とガバナンスの新しいパラダイムを作成する。
関連論文リスト
- Data Obfuscation through Latent Space Projection (LSP) for Privacy-Preserving AI Governance: Case Studies in Medical Diagnosis and Finance Fraud Detection [0.0]
本稿では、AIガバナンスの強化と、責任あるAIコンプライアンスの確保を目的とした、新しい技術であるLSP(Data Obfuscation through Latent Space Projection)を紹介する。
LSPは機械学習を使用して、機密データを潜在空間に投影し、モデルトレーニングと推論に不可欠な機能を保ちながら効果的に難読化する。
LSPの有効性は、ベンチマークデータセットの実験と、医療がん診断と金融詐欺分析の2つの実世界のケーススタディを通じて検証する。
論文 参考訳(メタデータ) (2024-10-22T22:31:03Z) - Privacy-Preserving Decentralized AI with Confidential Computing [0.7893328752331561]
本稿では、Atoma Network内のCC(Confidential Computing)を用いた分散人工知能(AI)におけるプライバシ保護について述べる。
CCはハードウェアベースのTrusted Execution Environments (TEE)を活用して、機密データ処理の分離を提供する。
私たちはどのようにしてTEEをAtomaの分散フレームワークに統合できるかを検討します。
論文 参考訳(メタデータ) (2024-10-17T16:50:48Z) - Unlearning Targeted Information via Single Layer Unlearning Gradient [15.374381635334897]
無許可のプライバシー関連計算は社会にとって重要な関心事である。
EUの一般保護規則には「忘れられる権利」が含まれている
本研究では,SLUG(Single Layer Unlearning Gradient)を提案する。
論文 参考訳(メタデータ) (2024-07-16T15:52:36Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。