論文の概要: ExpProof : Operationalizing Explanations for Confidential Models with ZKPs
- arxiv url: http://arxiv.org/abs/2502.03773v1
- Date: Thu, 06 Feb 2025 04:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:34:16.874795
- Title: ExpProof : Operationalizing Explanations for Confidential Models with ZKPs
- Title(参考訳): ExpProof : ZKPを用いた信頼度モデルの運用説明
- Authors: Chhavi Yadav, Evan Monroe Laufer, Dan Boneh, Kamalika Chaudhuri,
- Abstract要約: ZKP(Zero-Knowledge Proofs)を用いた敵シナリオにおける説明の運用に向けて一歩前進する。
具体的には、一般的な説明可能性アルゴリズムLIMEのZKP対応バージョンについて検討し、ニューラルネットワークとランダムフォレストの性能を評価する。
- 参考スコア(独自算出の注目度): 33.47144717983562
- License:
- Abstract: In principle, explanations are intended as a way to increase trust in machine learning models and are often obligated by regulations. However, many circumstances where these are demanded are adversarial in nature, meaning the involved parties have misaligned interests and are incentivized to manipulate explanations for their purpose. As a result, explainability methods fail to be operational in such settings despite the demand \cite{bordt2022post}. In this paper, we take a step towards operationalizing explanations in adversarial scenarios with Zero-Knowledge Proofs (ZKPs), a cryptographic primitive. Specifically we explore ZKP-amenable versions of the popular explainability algorithm LIME and evaluate their performance on Neural Networks and Random Forests.
- Abstract(参考訳): 原則として、説明は機械学習モデルの信頼を高める手段として意図されており、しばしば規則によって義務付けられている。
しかし、これらが要求される多くの状況は、本質的には敵対的であり、関係当事者は利害関係が不一致であり、その目的のために説明を操作する動機付けがなされている。
その結果、要求 \cite{bordt2022post} にもかかわらず、説明可能性メソッドはそのような設定では動作しない。
本稿では,暗号プリミティブであるZero-Knowledge Proofs (ZKPs)を用いて,敵対的シナリオにおける説明の運用に向けて一歩前進する。
具体的には、一般的な説明可能性アルゴリズムLIMEのZKP対応バージョンについて検討し、ニューラルネットワークとランダムフォレストの性能を評価する。
関連論文リスト
- Counterfactual Explanations as Plans [6.445239204595516]
我々は、アクションシーケンスの観点で、対実的説明の正式な説明を提供する。
エージェントのモデルを修正したり、エージェントの計画にアクションを提案したりすることで、モデル和解の理由を自然に示します。
論文 参考訳(メタデータ) (2025-02-13T11:45:54Z) - Uncertainty Quantification for Gradient-based Explanations in Neural Networks [6.9060054915724]
ニューラルネットワークの説明の不確実性を確認するパイプラインを提案する。
このパイプラインを使用して、CIFAR-10、FER+、California Housingデータセットの説明分布を生成する。
修正画素挿入/削除のメトリクスを計算し、生成した説明の質を評価する。
論文 参考訳(メタデータ) (2024-03-25T21:56:02Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Feature Attributions and Counterfactual Explanations Can Be Manipulated [32.579094387004346]
本稿では,モデル非依存的特徴属性法を制御するバイアスモデルの設計方法について述べる。
これらの脆弱性は、敵がバイアス付きモデルをデプロイすることを可能にするが、説明はこのバイアスを明らかにしないため、ステークホルダーをモデルの信頼性を損なう。
我々は、CompASやCommunity & Crimeを含む実世界のデータセットの操作を評価し、実際に操作できる説明を見つける。
論文 参考訳(メタデータ) (2021-06-23T17:43:31Z) - Convex Density Constraints for Computing Plausible Counterfactual
Explanations [8.132423340684568]
因果的説明は、あるモデルの特定の決定を説明する最も一般的な手法の1つであると考えられている。
我々は最近の研究に基づいて、妥当な対実的説明の形式的定義を提案し、研究する。
特に, 実測値の妥当性と妥当性を高めるために, 密度推定器の応用について検討する。
論文 参考訳(メタデータ) (2020-02-12T09:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。