論文の概要: Brain Surgery: Ensuring GDPR Compliance in Large Language Models via Concept Erasure
- arxiv url: http://arxiv.org/abs/2409.14603v1
- Date: Sun, 22 Sep 2024 21:42:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-26 02:56:28.164219
- Title: Brain Surgery: Ensuring GDPR Compliance in Large Language Models via Concept Erasure
- Title(参考訳): 脳外科:概念消去による大規模言語モデルにおけるGDPRコンプライアンスの確保
- Authors: Michele Laurelli,
- Abstract要約: 本稿では、リアルタイムな未学習を実現することによって、すべての局所的なAIモデルを読み取るための変革的手法である脳手術を紹介する。
Brain Surgeryは、さまざまなAIアーキテクチャにデプロイ可能なモジュラーソリューションを提供する。
このツールは、プライバシ規則の遵守を保証するだけでなく、ユーザが自身のプライバシ制限を定義できるようにし、AI倫理とガバナンスの新しいパラダイムを作成する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As large-scale AI systems proliferate, ensuring compliance with data privacy laws such as the General Data Protection Regulation (GDPR) has become critical. This paper introduces Brain Surgery, a transformative methodology for making every local AI model GDPR-ready by enabling real-time privacy management and targeted unlearning. Building on advanced techniques such as Embedding-Corrupted Prompts (ECO Prompts), blockchain-based privacy management, and privacy-aware continual learning, Brain Surgery provides a modular solution that can be deployed across various AI architectures. This tool not only ensures compliance with privacy regulations but also empowers users to define their own privacy limits, creating a new paradigm in AI ethics and governance.
- Abstract(参考訳): 大規模なAIシステムが普及するにつれて、GDPR(General Data Protection Regulation)のようなデータプライバシ規則の遵守が重要になっている。
本稿では、リアルタイムプライバシ管理とターゲット未学習を可能にすることにより、すべてのローカルAIモデルGDPR対応化のための変革的手法であるBrain Surgeryを紹介する。
Embedding-Corrupted Prompts (ECO Prompts)、ブロックチェーンベースのプライバシ管理、プライバシを意識した継続的学習といった高度な技術に基づいて、Brain Surgeryは、さまざまなAIアーキテクチャにデプロイ可能なモジュラーソリューションを提供する。
このツールは、プライバシ規則の遵守を保証するだけでなく、ユーザが自身のプライバシ制限を定義できるようにし、AI倫理とガバナンスの新しいパラダイムを作成する。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Ethics and Responsible AI Deployment [1.3597551064547502]
この記事では、倫理基準に準拠しながら個人のプライバシーを保護する倫理的AIシステムの必要性について論じる。
研究は、差分プライバシー、同型暗号化、連合学習、国際規制フレームワーク、倫理ガイドラインなどの革新的なアルゴリズム技術について検討している。
論文 参考訳(メタデータ) (2023-11-12T13:32:46Z) - Differential Privacy for Adaptive Weight Aggregation in Federated Tumor
Segmentation [0.16746114653388383]
Federated Learning(FL)は、個々のクライアントデータのプライバシを尊重しながら、公平なグローバルモデルを作成することによって、プライバシを保護する分散機械学習アプローチである。
医用画像セグメンテーションにおける差分プライバシー(DP)統合ディープラーニングフレームワークを提案する。
我々は, 類似度重み付け法(SimAgg)を, 脳腫瘍セグメント化のための差分プライベート類似度重み付けアルゴリズムDP-SimAggアルゴリズムに拡張する。
論文 参考訳(メタデータ) (2023-08-01T21:59:22Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Federated Boosted Decision Trees with Differential Privacy [24.66980518231163]
本稿では,従来の決定木に対するアプローチをキャプチャし,拡張する汎用フレームワークを提案する。
高いレベルのプライバシを維持しながら、極めて高いユーティリティを実現することが可能であることを、慎重に選択することで示しています。
論文 参考訳(メタデータ) (2022-10-06T13:28:29Z) - Disentangling private classes through regularization [8.72305226979945]
深層学習モデルのためのアプローチであるDisPを提案する。
DisPは、トレーニング時に同一のプライベートクラスに属する機能を非相関化し、プライベートクラスのメンバーシップの情報を隠蔽する正規化戦略である。
最先端のディープラーニングモデルを用いた実験により,DisPの有効性が示された。
論文 参考訳(メタデータ) (2022-07-05T12:35:47Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Privacy-preserving Artificial Intelligence Techniques in Biomedicine [3.908261721108553]
機密データに基づくAIモデルのトレーニングは、個々の参加者のプライバシに関する懸念を提起する。
本稿では,生物医学におけるプライバシ保存型AI技術の進歩について概説する。
最も重要な最先端のアプローチを統一された分類分野に配置し、その強み、限界、オープンな問題について議論する。
論文 参考訳(メタデータ) (2020-07-22T18:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。