論文の概要: Adversarial Attacks and Defenses in Physiological Computing: A
Systematic Review
- arxiv url: http://arxiv.org/abs/2102.02729v1
- Date: Thu, 4 Feb 2021 16:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 15:54:46.246158
- Title: Adversarial Attacks and Defenses in Physiological Computing: A
Systematic Review
- Title(参考訳): 物理計算における敵対的攻撃と防御:システム的レビュー
- Authors: Dongrui Wu, Weili Fang, Yi Zhang, Liuqing Yang, Hanbin Luo, Lieyun
Ding, Xiaodong Xu and Xiang Yu
- Abstract要約: 生理コンピューティングは、人間の生理データをリアルタイムでシステム入力として利用する。
生理学的コンピューティングシステムの脆弱性には十分な注意が払われておらず、敵の攻撃に関する包括的なレビューは存在しない。
本稿では, 生理学コンピューティングの主な研究分野, 様々な種類の敵攻撃とその生理学コンピューティングへの応用, およびそれに対応する防衛戦略について, 体系的に検討する。
- 参考スコア(独自算出の注目度): 34.33564833034554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physiological computing uses human physiological data as system inputs in
real time. It includes, or significantly overlaps with, brain-computer
interfaces, affective computing, adaptive automation, health informatics, and
physiological signal based biometrics. Physiological computing increases the
communication bandwidth from the user to the computer, but is also subject to
various types of adversarial attacks, in which the attacker deliberately
manipulates the training and/or test examples to hijack the machine learning
algorithm output, leading to possibly user confusion, frustration, injury, or
even death. However, the vulnerability of physiological computing systems has
not been paid enough attention to, and there does not exist a comprehensive
review on adversarial attacks to it. This paper fills this gap, by providing a
systematic review on the main research areas of physiological computing,
different types of adversarial attacks and their applications to physiological
computing, and the corresponding defense strategies. We hope this review will
attract more research interests on the vulnerability of physiological computing
systems, and more importantly, defense strategies to make them more secure.
- Abstract(参考訳): 生理学的コンピューティングは、人間の生理データをリアルタイムでシステム入力として利用する。
脳とコンピュータのインターフェース、感情コンピューティング、適応的自動化、健康情報学、生理的信号に基づく生体計測などと大きく重なり合っている。
生理学的コンピューティングは、ユーザからコンピュータへの通信帯域幅を増加させるが、攻撃者が故意にトレーニングおよび/またはテスト例を操作して機械学習アルゴリズム出力をハイジャックすることで、ユーザの混乱、フラストレーション、負傷、さらには死に至る可能性のある、さまざまなタイプの敵対攻撃の対象となる。
しかし、生理学的コンピューティングシステムの脆弱性は十分に注目されておらず、それに対する敵意攻撃に関する包括的なレビューは存在していない。
このギャップを埋めるために、生理学コンピューティングの主要な研究分野、様々なタイプの敵攻撃とその生理学コンピューティングへの応用、およびそれに対応する防衛戦略を体系的に検討する。
このレビューは、生理学的コンピューティングシステムの脆弱性、およびより重要な、それらをより安全にするための防衛戦略に関するより多くの研究の関心を引き付けることを願っています。
関連論文リスト
- Towards Biologically Plausible Computing: A Comprehensive Comparison [24.299920289520013]
バックプロパゲーションは、教師あり学習のためのニューラルネットワークのトレーニングの基盤となるアルゴリズムである。
バックプロパゲーションの生物学的妥当性は、重量対称性、大域的誤差計算、二重位相学習の要求により疑問視される。
本研究では,望ましい学習アルゴリズムが満たすべき生物学的妥当性の基準を確立する。
論文 参考訳(メタデータ) (2024-06-23T09:51:20Z) - A Review of Neuroscience-Inspired Machine Learning [58.72729525961739]
バイオプルーシブル・クレジット・アサインメントは、事実上あらゆる学習条件と互換性があり、エネルギー効率が高い。
本稿では,人工ニューラルネットワークにおける信用代入の生体評価可能なルールをモデル化する,いくつかの重要なアルゴリズムについて検討する。
我々は,このようなアルゴリズムを実用アプリケーションでより有用にするためには,今後の課題に対処する必要があることを論じる。
論文 参考訳(メタデータ) (2024-02-16T18:05:09Z) - A reading survey on adversarial machine learning: Adversarial attacks
and their understanding [6.1678491628787455]
Adversarial Machine Learningは、ニューラルネットワークがほぼオリジナルの入力を誤って分類する原因となる脆弱性を悪用し、理解する。
敵攻撃と呼ばれるアルゴリズムのクラスが提案され、ニューラルネットワークが異なるドメインの様々なタスクを誤って分類する。
本稿は、既存の敵攻撃とその理解について、異なる視点で調査する。
論文 参考訳(メタデータ) (2023-08-07T07:37:26Z) - A Convolutional Spiking Network for Gesture Recognition in
Brain-Computer Interfaces [0.8122270502556371]
脳信号に基づく手振り分類の例題問題に対して,簡単な機械学習に基づくアプローチを提案する。
本手法は脳波データとECoGデータの両方で異なる対象に一般化し,92.74-97.07%の範囲で精度が向上することを示した。
論文 参考訳(メタデータ) (2023-04-21T16:23:40Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - On the spatiotemporal behavior in biology-mimicking computing systems [0.0]
シングルプロセッサからスーパーコンピュータまで、従来のコンピュータシステムのペイロード性能は、その性質の限界に達した。
ビッグデータ(人工知能をベースとする、あるいは支援する)に対処する需要が高まっていることと、私たちの脳の操作をより完全に理解することへの関心の両方が、生物学を模倣するコンピューティングシステムを構築する努力を刺激した。
これらのシステムは異常な数のプロセッサを必要とし、性能制限と非線形スケーリングをもたらす。
論文 参考訳(メタデータ) (2020-09-18T13:53:58Z) - Do we know the operating principles of our computers better than those
of our brain? [0.0]
本稿は, 従来の原理, 構成要素, コンピューティングに対する考え方が, 生体系を模倣する制限をいかに限定するかを論じる。
我々は、生物学的ニューラルネットワークの驚くほど効率的な操作に近づくために、コンピューティングパラダイムにおいてどのような変化が必要なのかを説明する。
論文 参考訳(メタデータ) (2020-05-06T20:41:23Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。