論文の概要: Stay Home Safe with Starving Federated Data
- arxiv url: http://arxiv.org/abs/2211.05410v1
- Date: Thu, 10 Nov 2022 08:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 16:16:33.019530
- Title: Stay Home Safe with Starving Federated Data
- Title(参考訳): フェデレーションデータの飢餓による自宅の安全確保
- Authors: Jaechul Roh, Yajun Fang
- Abstract要約: スマートホーム顔認識のためのFLATSという新しい対向訓練手法を提案する。
我々の手法は飢えている連合環境を考えると、グローバルモデルを堅牢にすることができる。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the past few years, the field of adversarial attack received numerous
attention from various researchers with the help of successful attack success
rate against well-known deep neural networks that were acknowledged to achieve
high classification ability in various tasks. However, majority of the
experiments were completed under a single model, which we believe it may not be
an ideal case in a real-life situation. In this paper, we introduce a novel
federated adversarial training method for smart home face recognition, named
FLATS, where we observed some interesting findings that may not be easily
noticed in a traditional adversarial attack to federated learning experiments.
By applying different variations to the hyperparameters, we have spotted that
our method can make the global model to be robust given a starving federated
environment. Our code can be found on https://github.com/jcroh0508/FLATS.
- Abstract(参考訳): 過去数年間にわたり、敵対的攻撃の分野は、様々なタスクで高い分類能力を達成すると認められた有名なディープニューラルネットワークに対する攻撃成功率の助けを借りて、様々な研究者から多くの注目を集めた。
しかし、実験の大部分は1つのモデルで完了しており、現実の状況では理想的ではないと考えられる。
本稿では,FLATSと呼ばれる,スマートホーム顔認識のための新しい対向訓練手法を紹介し,従来の対向学習実験では見つからない興味深い発見がいくつか見いだされた。
ハイパーパラメータに異なるバリエーションを適用することで、飢えている連合環境を考えると、我々の手法がグローバルモデルを堅牢にすることができることがわかった。
私たちのコードはhttps://github.com/jcroh0508/FLATSで参照できます。
関連論文リスト
- Federated Adversarial Learning for Robust Autonomous Landing Runway Detection [6.029462194041386]
本稿では,着陸滑走路を検出するための対向学習フレームワークを提案する。
我々の知る限りでは、着陸滑走路検出における対向的なサンプル問題に対処する連合学習の事例としては、これが初めてである。
論文 参考訳(メタデータ) (2024-06-22T19:31:52Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - Learning and Certification under Instance-targeted Poisoning [49.55596073963654]
インスタンスターゲット中毒攻撃におけるPAC学習性と認証について検討する。
敵の予算がサンプルの複雑さに比例してスケールすると、PACの学習性と認定が達成可能であることを示す。
実データセット上でのK近傍, ロジスティック回帰, 多層パーセプトロン, 畳み込みニューラルネットワークの堅牢性を実証的に検討する。
論文 参考訳(メタデータ) (2021-05-18T17:48:15Z) - Adversarial Threats to DeepFake Detection: A Practical Perspective [12.611342984880826]
本稿では,最先端のDeepFake検出手法の脆弱性を実用的観点から検討する。
我々は、非常に現実的な攻撃シナリオを示すUniversal Adversarial Perturbationsを用いて、よりアクセスしやすい攻撃を作成する。
論文 参考訳(メタデータ) (2020-11-19T16:53:38Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。