論文の概要: Adversarial Transferability in Wearable Sensor Systems
- arxiv url: http://arxiv.org/abs/2003.07982v2
- Date: Thu, 15 Jul 2021 16:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 21:04:27.028924
- Title: Adversarial Transferability in Wearable Sensor Systems
- Title(参考訳): ウェアラブルセンサシステムにおける対向移動性
- Authors: Ramesh Kumar Sah and Hassan Ghasemzadeh
- Abstract要約: 最近の研究では、機械学習アルゴリズムは、入力に逆方向の摂動を加えることで、容易に騙されることがわかった。
ある機械学習システムに対して生成された逆例も、他のシステムに対して有効である。
本研究は,ウェアラブルセンサシステムにおける対向移動性の研究において,最初の一歩を踏み出したものである。
- 参考スコア(独自算出の注目度): 19.391920824853344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning is used for inference and decision making in wearable sensor
systems. However, recent studies have found that machine learning algorithms
are easily fooled by the addition of adversarial perturbations to their inputs.
What is more interesting is that adversarial examples generated for one machine
learning system is also effective against other systems. This property of
adversarial examples is called transferability. In this work, we take the first
stride in studying adversarial transferability in wearable sensor systems from
the following perspectives: 1) transferability between machine learning
systems, 2) transferability across subjects, 3) transferability across sensor
body locations, and 4) transferability across datasets. We found strong
untargeted transferability in most cases. Targeted attacks were less successful
with success scores from $0\%$ to $80\%$. The transferability of adversarial
examples depends on many factors such as the inclusion of data from all
subjects, sensor body position, number of samples in the dataset, type of
learning algorithm, and the distribution of source and target system dataset.
The transferability of adversarial examples decreases sharply when the data
distribution of the source and target system becomes more distinct. We also
provide guidelines for the community for designing robust sensor systems.
- Abstract(参考訳): 機械学習はウェアラブルセンサーシステムにおける推論と意思決定に使用される。
しかし、最近の研究では、機械学習アルゴリズムは、その入力に逆の摂動を追加することで容易に騙されることがわかった。
さらに興味深いのは、ある機械学習システムで生成された敵の例は、他のシステムにも有効であることだ。
逆例のこの性質は移動可能性 (transferability) と呼ばれる。
本研究では,ウェアラブルセンサシステムにおける逆移動可能性の研究において,次の観点から最初の一歩を踏み出す。
1)機械学習システム間の転送可能性
2) 被験者間の移動性
3)センサ本体位置間の移動性,及び
4)データセット間の転送性。
ほとんどの場合、強い非ターゲティングな転送性を見出した。
標的攻撃は成功せず、成功したスコアは$0\%$から$80\%$であった。
逆の例の転送性は、すべての対象からのデータの包含、センサ本体の位置、データセット内のサンプル数、学習アルゴリズムの種類、ソースおよびターゲットシステムデータセットの分布など、多くの要因に依存する。
ソースとターゲットシステムのデータ分布がより明確になるにつれて、逆例の転送可能性は大きく低下する。
また、堅牢なセンサシステムを設計するためのコミュニティ向けガイドラインも提供する。
関連論文リスト
- Learning 3D Perception from Others' Predictions [64.09115694891679]
本研究では,3次元物体検出装置を構築するための新たなシナリオについて検討する。
例えば、自動運転車が新しいエリアに入ると、その領域に最適化された検出器を持つ他の交通参加者から学ぶことができる。
論文 参考訳(メタデータ) (2024-10-03T16:31:28Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - A Data-Based Perspective on Transfer Learning [76.30206800557411]
転送学習におけるソースデータセットの合成の役割について,より詳しく検討する。
我々のフレームワークは、転送学習の脆さをピンポインティングするなど、新しい機能を生み出します。
論文 参考訳(メタデータ) (2022-07-12T17:58:28Z) - Anomaly Detection and Inter-Sensor Transfer Learning on Smart
Manufacturing Datasets [6.114996271792091]
スマートマニュファクチャリングシステムの目標は、運用コストを削減し、ダウンタイムをなくすために、失敗を迅速に検出(または予測)することである。
これはしばしば、システムから取得したセンサーの日程内で異常を検出することに起因する。
スマートマニュファクチャリングアプリケーションドメインは、ある種の健全な技術的課題を提起します。
予測的障害分類が達成できることを示し、予測的メンテナンスの道を開く。
論文 参考訳(メタデータ) (2022-06-13T17:51:24Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Attack-Centric Approach for Evaluating Transferability of Adversarial
Samples in Machine Learning Models [0.30458514384586394]
敵のサンプルの転送可能性に影響を与える要因を知ることは、専門家が堅牢で信頼性の高い機械学習システムを構築する方法に関する決定を下すのを助けることができる。
本研究は,攻撃中心アプローチによる対人サンプルの移動可能性のメカニズムについて考察する。
論文 参考訳(メタデータ) (2021-12-03T08:24:23Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - When Autonomous Systems Meet Accuracy and Transferability through AI: A
Survey [17.416847623629362]
本稿では,自律システムにおける学習に基づくアプローチを,正確性と伝達可能性の観点から概観する。
敵の学習の利点を示すため、正確性や伝達可能性の見直しに重点を置いている。
本稿では,自律システムにおける対人学習,RL,メタラーニングの課題と今後の課題について論じる。
論文 参考訳(メタデータ) (2020-03-29T04:50:22Z) - Causal Transfer for Imitation Learning and Decision Making under
Sensor-shift [13.477892615179485]
このような「センサシフト」下での伝達学習のための因果モデルに基づくフレームワークを提案する。
我々は、人口レベルで、関連するメカニズムをどの程度特定し、転送できるかを厳格に分析する。
計算しやすく, 有限データから推定し, 正確な解よりも解釈し易いプロキシ手法をいくつか導入する。
論文 参考訳(メタデータ) (2020-03-02T12:37:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。