論文の概要: Secure Multiparty Generative AI
- arxiv url: http://arxiv.org/abs/2409.19120v1
- Date: Fri, 27 Sep 2024 19:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:21:02.586594
- Title: Secure Multiparty Generative AI
- Title(参考訳): セキュアなマルチパーティ生成AI
- Authors: Manil Shrestha, Yashodha Ravichandran, Edward Kim,
- Abstract要約: 生成的AIツールの使用が急上昇するにつれ、これらのモデルに暴露される機密情報の量は警告される。
本研究では、サードパーティのAIプロバイダに機密データやモデルを公開しない、生成人工知能のためのセキュアでプライベートな方法論を提案する。
- 参考スコア(独自算出の注目度): 1.4433703131122861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As usage of generative AI tools skyrockets, the amount of sensitive information being exposed to these models and centralized model providers is alarming. For example, confidential source code from Samsung suffered a data leak as the text prompt to ChatGPT encountered data leakage. An increasing number of companies are restricting the use of LLMs (Apple, Verizon, JPMorgan Chase, etc.) due to data leakage or confidentiality issues. Also, an increasing number of centralized generative model providers are restricting, filtering, aligning, or censoring what can be used. Midjourney and RunwayML, two of the major image generation platforms, restrict the prompts to their system via prompt filtering. Certain political figures are restricted from image generation, as well as words associated with women's health care, rights, and abortion. In our research, we present a secure and private methodology for generative artificial intelligence that does not expose sensitive data or models to third-party AI providers. Our work modifies the key building block of modern generative AI algorithms, e.g. the transformer, and introduces confidential and verifiable multiparty computations in a decentralized network to maintain the 1) privacy of the user input and obfuscation to the output of the model, and 2) introduce privacy to the model itself. Additionally, the sharding process reduces the computational burden on any one node, enabling the distribution of resources of large generative AI processes across multiple, smaller nodes. We show that as long as there exists one honest node in the decentralized computation, security is maintained. We also show that the inference process will still succeed if only a majority of the nodes in the computation are successful. Thus, our method offers both secure and verifiable computation in a decentralized network.
- Abstract(参考訳): 生成型AIツールの使用が急増するにつれ、これらのモデルや集中型モデルプロバイダに露出する機密情報の量が急増している。
例えば、Samsungの機密ソースコードは、ChatGPTへのテキストプロンプトがデータ漏洩に遭遇したため、データ漏洩に遭った。
LLM(Apple、Verizon、JPMorgan Chaseなど)の使用を制限する企業が増えている。
また、集中型生成モデルプロバイダの増加は、使用可能なものを制限、フィルタリング、整列、検閲している。
主要な画像生成プラットフォームであるMidjourneyとRunwayMLは、プロンプトフィルタリングによってシステムへのプロンプトを制限する。
特定の政治的人物は、イメージ生成や女性の医療、権利、中絶に関連する言葉に制限されている。
本研究では、サードパーティのAIプロバイダに機密データやモデルを公開しない、生成人工知能のためのセキュアでプライベートな方法論を提案する。
我々の研究は、現代の生成AIアルゴリズム、例えばトランスフォーマーのキービルディングブロックを修正し、分散ネットワークに秘密で検証可能なマルチパーティ計算を導入し、維持する。
1) ユーザの入力のプライバシー及びモデルの出力に対する難読化
2) モデル自体にプライバシを導入する。
さらに、シャーディングプロセスは、任意のノードの計算負担を低減し、複数の小さなノードにまたがる大規模な生成AIプロセスのリソースの分散を可能にする。
分散化された計算に1つの正直なノードが存在する限り、セキュリティは維持される。
また、計算におけるノードの過半数が成功した場合、推論プロセスが引き続き成功することを示す。
そこで本手法は,分散ネットワーク上でのセキュアかつ検証可能な計算を提供する。
関連論文リスト
- Privacy-Preserving Decentralized AI with Confidential Computing [0.7893328752331561]
本稿では、Atoma Network内のCC(Confidential Computing)を用いた分散人工知能(AI)におけるプライバシ保護について述べる。
CCはハードウェアベースのTrusted Execution Environments (TEE)を活用して、機密データ処理の分離を提供する。
私たちはどのようにしてTEEをAtomaの分散フレームワークに統合できるかを検討します。
論文 参考訳(メタデータ) (2024-10-17T16:50:48Z) - JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - $\Lambda$-Split: A Privacy-Preserving Split Computing Framework for
Cloud-Powered Generative AI [3.363904632882723]
本稿では,計算オフロードを容易にする分割計算フレームワークである$Lambda$-Splitを紹介する。
Lambda$-Splitでは、生成モデル(通常はディープニューラルネットワーク(DNN))が3つのサブモデルに分割され、ユーザのローカルデバイスとクラウドサーバに分散される。
このアーキテクチャにより、隠された層出力のみが送信されることが保証され、プライバシーに敏感な生入力および出力データの外部送信が防止される。
論文 参考訳(メタデータ) (2023-10-23T07:44:04Z) - Differentially Private Secure Multiplication: Hiding Information in the
Rubble of Noise [7.767656876470667]
プライベート分散マルチパーティ乗算の問題点を考察する。
Shamirの秘密共有コーディング戦略が、分散計算における完全な情報理論プライバシを実現することは、十分に確立されている。
論文 参考訳(メタデータ) (2023-09-28T02:13:13Z) - BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models [54.19289900203071]
テキストから画像への生成人工知能の普及は、大衆の関心を集めている。
ユーザを微妙に操作するコンテンツを生成するために,この技術を攻撃できることを実証する。
テキストから画像生成モデル(BAGM)に対するバックドアアタックを提案する。
我々の攻撃は、生成過程の3段階にわたる3つの一般的なテキスト・画像生成モデルをターゲットにした最初の攻撃である。
論文 参考訳(メタデータ) (2023-07-31T08:34:24Z) - HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models [0.23624125155742057]
ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
論文 参考訳(メタデータ) (2023-02-16T12:37:14Z) - Collaborative Unsupervised Visual Representation Learning from
Decentralized Data [34.06624704343615]
我々は、新しいフェデレーション付き教師なし学習フレームワーク、FedUを提案する。
このフレームワークでは、オンラインネットワークとターゲットネットワークとの対比学習を用いて、各パーティが、ラベルのないデータから独立してモデルをトレーニングする。
FedUはデータのプライバシを保護している。
論文 参考訳(メタデータ) (2021-08-14T08:34:11Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。