論文の概要: Trust the Process: Zero-Knowledge Machine Learning to Enhance Trust in
Generative AI Interactions
- arxiv url: http://arxiv.org/abs/2402.06414v1
- Date: Fri, 9 Feb 2024 14:00:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 16:38:24.893042
- Title: Trust the Process: Zero-Knowledge Machine Learning to Enhance Trust in
Generative AI Interactions
- Title(参考訳): プロセス信頼: 生成的aiインタラクションの信頼を高めるためのゼロ知識機械学習
- Authors: Bianca-Mihaela Ganescu, Jonathan Passerat-Palmbach
- Abstract要約: 特にZKP(Zero-Knowledge Proofs)を使用して、パフォーマンスの公正性と正確性に関する懸念に対処する。
ZKML(Zero-Knowledge Machine Learning)として知られる機械学習モデルにZKPを適用することで、AI生成コンテンツの独立した検証が可能になる。
モデルプライバシを保ちながら出力精度と品質を検証するために,トランスフォーマーのための実用的なZKML実装であるsnarkGPTを導入する。
- 参考スコア(独自算出の注目度): 1.3688201404977818
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Generative AI, exemplified by models like transformers, has opened up new
possibilities in various domains but also raised concerns about fairness,
transparency and reliability, especially in fields like medicine and law. This
paper emphasizes the urgency of ensuring fairness and quality in these domains
through generative AI. It explores using cryptographic techniques, particularly
Zero-Knowledge Proofs (ZKPs), to address concerns regarding performance
fairness and accuracy while protecting model privacy. Applying ZKPs to Machine
Learning models, known as ZKML (Zero-Knowledge Machine Learning), enables
independent validation of AI-generated content without revealing sensitive
model information, promoting transparency and trust. ZKML enhances AI fairness
by providing cryptographic audit trails for model predictions and ensuring
uniform performance across users. We introduce snarkGPT, a practical ZKML
implementation for transformers, to empower users to verify output accuracy and
quality while preserving model privacy. We present a series of empirical
results studying snarkGPT's scalability and performance to assess the
feasibility and challenges of adopting a ZKML-powered approach to capture
quality and performance fairness problems in generative AI models.
- Abstract(参考訳): トランスフォーマーのようなモデルで実証された生成AIは、さまざまな領域で新たな可能性を開く一方で、公正性、透明性、信頼性、特に医学や法学のような分野への懸念も持ち上がっている。
本稿では、生成AIによるこれらの領域の公平性と品質の確保の緊急性を強調する。
特にZKP(Zero-Knowledge Proofs)は、モデルのプライバシを保護しながら、パフォーマンスの公正性と正確性に関する懸念に対処するため、暗号化技術の使用を検討している。
ZKML(Zero-Knowledge Machine Learning)として知られる機械学習モデルにZKPを適用することで、センシティブなモデル情報を明らかにし、透明性と信頼を促進することなく、AI生成したコンテンツの独立した検証が可能になる。
ZKMLは、モデル予測のための暗号化監査証跡を提供することで、AIの公正性を高める。
モデルプライバシを保ちながら出力精度と品質を検証するために,トランスフォーマーのための実用的なZKML実装であるsnarkGPTを導入する。
本稿では,SnarkGPTのスケーラビリティと性能を実証的に研究し,ZKMLによるAIモデルの品質と性能の公平性を捉える手法の適用可能性と課題を評価する。
関連論文リスト
- NeuralSentinel: Safeguarding Neural Network Reliability and
Trustworthiness [0.0]
我々は,AIモデルの信頼性と信頼性を検証するツールであるNeuralSentinel(NS)を提案する。
NSは、モデル決定を理解することによって、専門家以外のスタッフがこの新しいシステムに対する信頼を高めるのに役立つ。
このツールはハッカソンイベントにデプロイされ、皮膚がん画像検出器の信頼性を評価するために使用された。
論文 参考訳(メタデータ) (2024-02-12T09:24:34Z) - Analyzing the Quality Attributes of AI Vision Models in Open
Repositories Under Adversarial Attacks [8.861368759724431]
敵対的攻撃は、AIモデルの堅牢性と説明可能性に対する潜在的な脅威である。
XAIは、入力を近似したアルゴリズムをポストホック出力に適用し、貢献する特徴を識別する。
本稿では,下流評価タスクのための統合プロセスを提案する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - Estimating Fr\'echet bounds for validating programmatic weak supervision [50.13475056199486]
我々は、ある変数が連続的に評価される(おそらく高次元の)分布クラス上のFr'echeの境界を推定する手法を開発する。
プログラム弱監督(PWS)を訓練した機械学習(ML)モデルの性能を評価することで,アルゴリズムの有用性を実証する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - Zero-knowledge Proof Meets Machine Learning in Verifiability: A Survey [19.70499936572449]
高品質なモデルは、効率的な最適化アルゴリズムだけでなく、膨大なデータと計算能力に基づいて構築されたトレーニングと学習プロセスにも依存する。
計算リソースの制限やデータプライバシの懸念など,さまざまな課題があるため,モデルを必要とするユーザは,マシンラーニングモデルをローカルにトレーニングすることはできないことが多い。
本稿では,ゼロ知識証明に基づく検証可能な機械学習(ZKP-VML)技術について包括的に調査する。
論文 参考訳(メタデータ) (2023-10-23T12:15:23Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Information Theoretic Evaluation of Privacy-Leakage, Interpretability,
and Transferability for a Novel Trustworthy AI Framework [11.764605963190817]
信頼に値するAIのガイドラインと原則は、実際にAIシステムの開発中に守るべきである。
この研究は、情報理論が倫理的AIの原則を考慮に入れられるという仮説に基づいて、新しい情報理論の信頼できるAIフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-06T09:47:06Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。