論文の概要: Adversarial Attacks on Speech Recognition Systems for Mission-Critical
Applications: A Survey
- arxiv url: http://arxiv.org/abs/2202.10594v1
- Date: Tue, 22 Feb 2022 00:29:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 05:22:33.647746
- Title: Adversarial Attacks on Speech Recognition Systems for Mission-Critical
Applications: A Survey
- Title(参考訳): ミッションクリティカルな応用のための音声認識システムに対する敵対的攻撃:調査
- Authors: Ngoc Dung Huynh, Mohamed Reda Bouadjenek, Imran Razzak, Kevin Lee,
Chetan Arora, Ali Hassani, Arkady Zaslavsky
- Abstract要約: AI(Adversarial Artificial Intelligence)は、AIと機械学習の研究コミュニティにおける脅威の増大である。
本稿では,既存の音声認識技術について概説し,これらのシステムに対する敵攻撃と防御の有効性について検討する。
本論文は、研究者や実践者が課題を理解し、自らを位置づけ、究極的にはミッションクリティカルな応用のための既存の音声認識モデルを改善するのに役立てることが期待されている。
- 参考スコア(独自算出の注目度): 8.86498196260453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Machine-Critical Application is a system that is fundamentally necessary to
the success of specific and sensitive operations such as search and recovery,
rescue, military, and emergency management actions. Recent advances in Machine
Learning, Natural Language Processing, voice recognition, and speech processing
technologies have naturally allowed the development and deployment of
speech-based conversational interfaces to interact with various
machine-critical applications. While these conversational interfaces have
allowed users to give voice commands to carry out strategic and critical
activities, their robustness to adversarial attacks remains uncertain and
unclear. Indeed, Adversarial Artificial Intelligence (AI) which refers to a set
of techniques that attempt to fool machine learning models with deceptive data,
is a growing threat in the AI and machine learning research community, in
particular for machine-critical applications. The most common reason of
adversarial attacks is to cause a malfunction in a machine learning model. An
adversarial attack might entail presenting a model with inaccurate or
fabricated samples as it's training data, or introducing maliciously designed
data to deceive an already trained model. While focusing on speech recognition
for machine-critical applications, in this paper, we first review existing
speech recognition techniques, then, we investigate the effectiveness of
adversarial attacks and defenses against these systems, before outlining
research challenges, defense recommendations, and future work. This paper is
expected to serve researchers and practitioners as a reference to help them in
understanding the challenges, position themselves and, ultimately, help them to
improve existing models of speech recognition for mission-critical
applications. Keywords: Mission-Critical Applications, Adversarial AI, Speech
Recognition Systems.
- Abstract(参考訳): 機械クリティカル・アプリケーション(英: machine-critical application)とは、捜索および回収、救助、軍事、緊急管理といった特殊かつ機密性の高い作戦を成功させるために必要なシステムである。
近年の機械学習、自然言語処理、音声認識、音声処理技術の進歩により、様々な機械クリティカルなアプリケーションと対話するための音声ベースの会話インタフェースの開発と展開が自然に可能になっている。
これらの会話インターフェイスにより、ユーザーは戦略的かつ重要な活動を行うために音声コマンドを与えることができたが、敵の攻撃に対する強固さはいまだに不明で不明瞭である。
実際、AI(Adversarial Artificial Intelligence)は、機械学習モデルを欺くデータを騙そうとする一連のテクニックを指すもので、特に機械クリティカルなアプリケーションにおいて、AIと機械学習研究コミュニティの脅威が増大している。
敵対的攻撃の最も一般的な理由は、機械学習モデルで誤動作を引き起こすことである。
敵の攻撃は、トレーニングデータとして不正確または製造されたサンプルを持つモデルを提示することや、すでに訓練されたモデルを欺くために悪意ある設計データを導入することを必要とする。
機械クリティカルなアプリケーションのための音声認識に注目しながら,まず既存の音声認識手法をレビューし,本研究の課題,防衛勧告,今後の課題を概説する前に,これらのシステムに対する敵対的攻撃と防御の有効性について検討する。
本論文は、研究者や実践者が課題を理解し、自らを位置づけ、究極的にはミッションクリティカルな応用のための既存の音声認識モデルを改善するのに役立てることが期待されている。
キーワード:ミッションクリティカルなアプリケーション、AI、音声認識システム。
関連論文リスト
- STAA-Net: A Sparse and Transferable Adversarial Attack for Speech
Emotion Recognition [36.73727306933382]
本稿では,SERモデルを騙すために,スパースおよびトランスファー可能な逆数例を生成するジェネレータベースの攻撃手法を提案する。
我々は、広く使われている2つのSERデータセット、DEMoS(DemoS)とIEMOCAP(Interactive Emotional Dyadic Motion CAPture)について、本手法の評価を行った。
論文 参考訳(メタデータ) (2024-02-02T08:46:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - The timing bottleneck: Why timing and overlap are mission-critical for
conversational user interfaces, speech recognition and dialogue systems [0.11470070927586018]
対話型および多言語対応のための5つの主要な商用ASRシステムの評価を行った。
6言語での自然な会話データに対する単語誤り率の差は小さく、重複は依然として重要な課題である。
本研究は,対話型音声技術の構築に最も注意を要する現象を同定し,会話型ASRの現状の評価,多次元誤り解析と評価に寄与することを支援する。
論文 参考訳(メタデータ) (2023-07-28T11:38:05Z) - Adversarial Learning in Real-World Fraud Detection: Challenges and
Perspectives [1.5373344688357016]
不正行為と敵対的攻撃は機械学習モデルを脅かす。
本稿では,不正検出システムに対する攻撃が,他の機械学習応用とどのように異なるかを述べる。
論文 参考訳(メタデータ) (2023-07-03T23:04:49Z) - Interactive System-wise Anomaly Detection [66.3766756452743]
異常検出は様々なアプリケーションにおいて基本的な役割を果たす。
既存のメソッドでは、インスタンスがデータとして容易に観察できないシステムであるシナリオを扱うのが難しい。
システム埋め込みを学習するエンコーダデコーダモジュールを含むエンドツーエンドアプローチを開発する。
論文 参考訳(メタデータ) (2023-04-21T02:20:24Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - A Tutorial on Adversarial Learning Attacks and Countermeasures [0.0]
機械学習モデルは、それを明示的にプログラムすることなく、高精度な予測を行うことができる。
敵の学習攻撃は 深刻なセキュリティの脅威を 引き起こす
本稿では、敵対的学習の原理を詳細に解説し、異なる攻撃シナリオを説明し、この脅威に対する最先端の防御機構について深い洞察を与える。
論文 参考訳(メタデータ) (2022-02-21T17:14:45Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - SoK: The Faults in our ASRs: An Overview of Attacks against Automatic
Speech Recognition and Speaker Identification Systems [28.635467696564703]
音声と話者システムのエンドツーエンドアーキテクチャは、画像空間のそれとはかなり異なる攻撃と防御を行うことを示す。
そして、これらのモデルに対する攻撃はほとんど普遍的に転送できないことを実験的に実証した。
論文 参考訳(メタデータ) (2020-07-13T18:52:25Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。