論文の概要: Exploring the Benefits of Visual Prompting in Differential Privacy
- arxiv url: http://arxiv.org/abs/2303.12247v1
- Date: Wed, 22 Mar 2023 01:01:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:48:26.172785
- Title: Exploring the Benefits of Visual Prompting in Differential Privacy
- Title(参考訳): 差分プライバシーにおける視覚プロンプトのメリットを探る
- Authors: Yizhe Li, Yu-Lin Tsai, Xuebin Ren, Chia-Mu Yu, Pin-Yu Chen
- Abstract要約: Visual Prompting (VP)は、よく訓練されたフリーズソースモデルを設計することで、下流タスクへのサンプル効率の適応を可能にする、新しくて強力なテクニックである。
本稿では,VPを標準DPトレーニング手法に統合し,そのシンプルさと効率性を実証する。
- 参考スコア(独自算出の注目度): 63.675263201485144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Prompting (VP) is an emerging and powerful technique that allows
sample-efficient adaptation to downstream tasks by engineering a well-trained
frozen source model. In this work, we explore the benefits of VP in
constructing compelling neural network classifiers with differential privacy
(DP). We explore and integrate VP into canonical DP training methods and
demonstrate its simplicity and efficiency. In particular, we discover that VP
in tandem with PATE, a state-of-the-art DP training method that leverages the
knowledge transfer from an ensemble of teachers, achieves the state-of-the-art
privacy-utility trade-off with minimum expenditure of privacy budget. Moreover,
we conduct additional experiments on cross-domain image classification with a
sufficient domain gap to further unveil the advantage of VP in DP. Lastly, we
also conduct extensive ablation studies to validate the effectiveness and
contribution of VP under DP consideration.
- Abstract(参考訳): ビジュアルプロンプト(vp)は、よく訓練された凍結したソースモデルによって下流タスクへのサンプル効率の高い適応を可能にする、新興かつ強力な技術である。
本稿では,差分プライバシー(dp)を用いた説得力のあるニューラルネットワーク分類器の構築におけるvpのメリットについて検討する。
vp を正準 dp トレーニング手法に統合し,その単純性と効率性を示す。
特に,教師のアンサンブルからの知識伝達を活用する,最先端のDPトレーニング手法であるPATEと接するVPが,プライバシー予算の最小支出で最先端のプライバシユーティリティトレードオフを実現することを発見した。
さらに,DPにおけるVPの利点を明らかにするために,十分な領域ギャップを持つ領域間画像分類のさらなる実験を行った。
最後に,dpを考慮したvpの有効性と貢献を検証するため,広範なアブレーション研究を行う。
関連論文リスト
- LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - DPBalance: Efficient and Fair Privacy Budget Scheduling for Federated
Learning as a Service [15.94482624965024]
フェデレーテッド・ラーニング(FL)は、一般的な分散機械学習スキームとして登場した。
DPBalanceは,効率性と公平性を両立させる新しいプライバシ予算スケジューリング機構である。
DPBalanceは平均効率改善が1.44倍のsim 3.49倍、平均フェアネス改善が1.37倍のsim 24.32倍であることを示す。
論文 参考訳(メタデータ) (2024-02-15T05:19:53Z) - DistilVPR: Cross-Modal Knowledge Distillation for Visual Place
Recognition [27.742693995915808]
DistilVPRは視覚的位置認識のための新しい蒸留パイプラインである。
本稿では,教師と学生のニューラルネットワークにおいて,自己エージェントやクロスエージェントを含む複数のエージェントの機能的関係を活用することを提案する。
実験により, 提案したパイプラインは, 他の蒸留ベースラインと比較して, 最先端の性能を達成できることが実証された。
論文 参考訳(メタデータ) (2023-12-17T05:59:06Z) - Selectivity Drives Productivity: Efficient Dataset Pruning for Enhanced
Transfer Learning [66.20311762506702]
データセットプルーニング(DP)は、データ効率を改善する効果的な方法として登場した。
本稿では,ラベルマッピングと特徴マッピングという2つの新しいDP手法を提案する。
ダウンストリーム性能を犠牲にすることなく、ソースデータクラスを最大40%まで刈り取ることができることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:07:49Z) - Sequential Information Design: Markov Persuasion Process and Its
Efficient Reinforcement Learning [156.5667417159582]
本稿では,逐次情報設計の新たなモデル,すなわちマルコフ説得過程(MPP)を提案する。
MPPのプランニングは、ミオピックレシーバーに同時に説得されるシグナルポリシーを見つけ、送信者の最適な長期累積ユーティリティを誘導する、というユニークな課題に直面している。
我々は,楽観主義と悲観主義の両原理の新たな組み合わせを特徴とする,実証可能な効率のよい非回帰学習アルゴリズム,Optimism-Pessimism Principle for Persuasion Process (OP4) を設計する。
論文 参考訳(メタデータ) (2022-02-22T05:41:43Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Learning Meta Pattern for Face Anti-Spoofing [26.82129880310214]
顔認証システムにはFAS(Face Anti-Spoofing)が不可欠である。
近年,タスク対応手工芸品の特徴を抽出するためのハイブリッド手法が研究されている。
学習から学習までのフレームワークでメタパターン(MP)を抽出する学習可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:34:20Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。