論文の概要: A Note On Interpreting Canary Exposure
- arxiv url: http://arxiv.org/abs/2306.00133v2
- Date: Fri, 2 Jun 2023 14:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 11:23:48.123483
- Title: A Note On Interpreting Canary Exposure
- Title(参考訳): カナリア露光の解釈に関する一考察
- Authors: Matthew Jagielski
- Abstract要約: カナリア露光は、機械学習モデルのトレーニングのプライバシを経験的に評価したり、監査するために頻繁に使用される。
このノートの目的は、カナリア曝露の解釈方法に関する直感を提供することである。
- 参考スコア(独自算出の注目度): 7.451276682691171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Canary exposure, introduced in Carlini et al. is frequently used to
empirically evaluate, or audit, the privacy of machine learning model training.
The goal of this note is to provide some intuition on how to interpret canary
exposure, including by relating it to membership inference attacks and
differential privacy.
- Abstract(参考訳): カルリーニ等で導入されたカナリア露光は、機械学習モデルのトレーニングのプライバシを経験的に評価したり、監査するために頻繁に使用される。
このノートの目的は、メンバシップ推論攻撃やディファレンシャルプライバシに関連することを含む、カナリアエクスポージャーの解釈に関する直感を提供することです。
関連論文リスト
- Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Exploring Memorization in Fine-tuned Language Models [53.52403444655213]
我々は,タスク間の微調整中に,言語モデルの暗記を探索する最初の包括的分析を行う。
オープンソースと、さまざまなタスクにまたがる独自の微調整LMによる研究は、暗記が様々な微調整タスクの間に強い相違を示すことを示している。
本稿では,この課題の相違をスパース符号化理論を用いて直感的に説明し,暗記と注目スコア分布との強い相関関係を明らかにする。
論文 参考訳(メタデータ) (2023-10-10T15:41:26Z) - Perturbation-based Self-supervised Attention for Attention Bias in Text
Classification [31.144857032681905]
本稿では,摂動に基づく自己監督型アテンションアプローチを提案し,注意学習の指導を行う。
文中のすべての単語に、その意味や予測を変えることなく、可能な限り多くのノイズを加えます。
3つのテキスト分類タスクの実験結果から,本手法は現在の注目モデルの性能を大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-05-25T03:18:18Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - In Differential Privacy, There is Truth: On Vote Leakage in Ensemble
Private Learning [42.34839009553982]
本研究では,PATE予測を行うノイズを用いることで,機密情報の漏洩の新たな形態を実現できることを示す。
我々の敵は、この事実を利用して、基礎となる教師が提出した投票の高忠実度ヒストグラムを抽出する。
これは、差別的なプライバシーをパナセアとして扱うのではなく、プライバシーを公平に考慮する将来の作業を促進することを願っている。
論文 参考訳(メタデータ) (2022-09-22T02:07:21Z) - Towards Differential Relational Privacy and its use in Question
Answering [109.4452196071872]
データセット内のエンティティ間の関係の記憶は、トレーニングされた質問応答モデルを使用する場合、プライバシの問題につながる可能性がある。
我々はこの現象を定量化し、微分プライバシー(DPRP)の定義を可能にする。
質問回答のための大規模モデルを用いた実験において,概念を解説する。
論文 参考訳(メタデータ) (2022-03-30T22:59:24Z) - CAPE: Context-Aware Private Embeddings for Private Language Learning [0.5156484100374058]
Context-Aware Private Embeddings (CAPE)は、埋め込みのトレーニング中にプライバシを保存する新しいアプローチである。
CAPEはディファレンシャルプライバシを通じて校正ノイズを適用し、機密情報を隠蔽しながらエンコードされたセマンティックリンクを保存する。
実験結果から,提案手法は単一介入よりも情報漏洩を低減させることが示された。
論文 参考訳(メタデータ) (2021-08-27T14:50:12Z) - Interpreting Expert Annotation Differences in Animal Behavior [34.257144599478856]
手書きのアノテートデータは、主観的差異、ラター内変動、およびアノテータの専門性の違いによって異なる可能性がある。
我々は,動物行動ビデオのセットで同じ行動クラスをラベル付けした,異なる専門家のアノテーションについて検討した。
本稿では,行動分析におけるアノテーションの違いの解釈を支援するために,プログラム合成を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-11T01:36:03Z) - Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model [35.016050900061]
本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
論文 参考訳(メタデータ) (2021-04-18T09:56:41Z) - Fighting Copycat Agents in Behavioral Cloning from Observation Histories [85.404120663644]
模倣学習は、入力観察から専門家が選択したアクションにマップするポリシーを訓練する。
本稿では,従来の専門家の行動ニュアンスに関する過剰な情報を除去する特徴表現を学習するための敵対的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-28T10:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。