論文の概要: Impact of Privacy Parameters on Deep Learning Models for Image Classification
- arxiv url: http://arxiv.org/abs/2412.06689v1
- Date: Mon, 09 Dec 2024 17:31:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:41.667210
- Title: Impact of Privacy Parameters on Deep Learning Models for Image Classification
- Title(参考訳): 画像分類のための深層学習モデルに対するプライバシパラメータの影響
- Authors: Basanta Chaulagain,
- Abstract要約: CIFAR-10データセット citecifar10 を用いた画像分類のための差分プライベートディープラーニングモデルを開発した。
モデル精度に及ぼす各種プライバシパラメータの影響を解析する。
今までで最高のパフォーマンスモデルは、以下のパラメータでテスト精度59.63%のEfficientNetです。
- 参考スコア(独自算出の注目度): 0.5439020425819
- License:
- Abstract: The project aims to develop differentially private deep learning models for image classification on CIFAR-10 datasets \cite{cifar10} and analyze the impact of various privacy parameters on model accuracy. We have implemented five different deep learning models, namely ConvNet, ResNet18, EfficientNet, ViT, and DenseNet121 and three supervised classifiers namely K-Nearest Neighbors, Naive Bayes Classifier and Support Vector Machine. We evaluated the performance of these models under varying settings. Our best performing model to date is EfficientNet with test accuracy of $59.63\%$ with the following parameters (Adam optimizer, batch size 256, epoch size 100, epsilon value 5.0, learning rate $1e-3$, clipping threshold 1.0, and noise multiplier 0.912).
- Abstract(参考訳): このプロジェクトの目的は、CIFAR-10データセット \cite{cifar10} 上の画像分類のための差分プライベートディープラーニングモデルを開発し、モデル精度に対するさまざまなプライバシパラメータの影響を分析することである。
我々は,ConvNet,ResNet18,EfficientNet,ViT,DenseNet121,K-Nearest Neighbors,Naive Bayes Classifier,Support Vector Machineの5つの異なるディープラーニングモデルを実装した。
我々は,これらのモデルの性能を異なる設定で評価した。
今までで最高のパフォーマンスモデルは、テスト精度が59.63 %$(Adam Optimizationr、バッチサイズ256、エポックサイズ100、epsilon値5.0、学習レート1e-3$、クリップしきい値1.0、ノイズ乗算器0.912)のEfficientNetです。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - PaCKD: Pattern-Clustered Knowledge Distillation for Compressing Memory
Access Prediction Models [2.404163279345609]
PaCKDはMAPモデルを圧縮するためのパターンクラスタ化知識蒸留手法である。
PaCKDは、標準的な知識蒸留で訓練された学生モデルよりも8.70%高い結果を得る。
論文 参考訳(メタデータ) (2024-02-21T00:24:34Z) - DiffCLIP: Leveraging Stable Diffusion for Language Grounded 3D Classification [19.40810553327253]
本稿では、視覚枝の領域ギャップを最小限に抑えるために、制御ネットとの安定拡散を取り入れた新しい事前学習フレームワークであるDiffCLIPを提案する。
ModelNet10、ModelNet40、ScanObjectNNデータセットの実験は、DiffCLIPが3D理解に強力な能力を持っていることを示している。
論文 参考訳(メタデータ) (2023-05-25T11:55:38Z) - ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders [104.05133094625137]
完全畳み込み型マスク付きオートエンコーダフレームワークと,新たなグローバル応答正規化層を提案する。
この自己教師付き学習技術とアーキテクチャ改善の共設計により、純粋なConvNetの性能を大幅に向上させるConvNeXt V2と呼ばれる新しいモデルファミリが生まれる。
論文 参考訳(メタデータ) (2023-01-02T18:59:31Z) - Device-friendly Guava fruit and leaf disease detection using deep
learning [0.0]
本研究は,果実や葉の画像を用いた深層学習に基づく植物病診断システムを提案する。
システムの実装には5つの最先端の畳み込みニューラルネットワーク(CNN)が使用されている。
論文 参考訳(メタデータ) (2022-09-26T10:19:57Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - CrossedWires: A Dataset of Syntactically Equivalent but Semantically
Disparate Deep Learning Models [4.487528701954606]
我々は、PyTorchとDenseflowという2つの人気のあるディープラーニングフレームワーク間の意味的な差異を明らかにするCrossedWiresと呼ばれるモデルとハイパーパラメータの生きたデータセットを提示する。
CrossedWiresデータセットは、一般的なディープラーニングフレームワーク間の構文的に等価なモデル間のセマンティックな差異を研究する機会を提供する。
論文 参考訳(メタデータ) (2021-08-29T07:27:16Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。