論文の概要: SoK: A Modularized Approach to Study the Security of Automatic Speech
Recognition Systems
- arxiv url: http://arxiv.org/abs/2103.10651v1
- Date: Fri, 19 Mar 2021 06:24:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 19:49:52.743746
- Title: SoK: A Modularized Approach to Study the Security of Automatic Speech
Recognition Systems
- Title(参考訳): SoK:自動音声認識システムのセキュリティ研究のためのモジュール化アプローチ
- Authors: Yuxuan Chen, Jiangshan Zhang, Xuejing Yuan, Shengzhi Zhang, Kai Chen,
Xiaofeng Wang and Shanqing Guo
- Abstract要約: 我々は、ASRセキュリティのための知識の体系化と、モジュール化されたワークフローに基づく既存の作業の包括的分類を提供する。
本稿では,この領域の研究を,画像認識システム(irs)におけるセキュリティに関する研究と一致させる。
これらの類似性により、IRSが提案する攻撃と防衛ソリューションのスペクトルに基づいて、ASRセキュリティにおける既存の文献を体系的に研究することができる。
対照的に、それらの違い、特にIRSと比較してASRの複雑さは、ASRセキュリティのユニークな課題と機会を学ぶのに役立ちます。
- 参考スコア(独自算出の注目度): 13.553395767144284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the wide use of Automatic Speech Recognition (ASR) in applications such
as human machine interaction, simultaneous interpretation, audio transcription,
etc., its security protection becomes increasingly important. Although recent
studies have brought to light the weaknesses of popular ASR systems that enable
out-of-band signal attack, adversarial attack, etc., and further proposed
various remedies (signal smoothing, adversarial training, etc.), a systematic
understanding of ASR security (both attacks and defenses) is still missing,
especially on how realistic such threats are and how general existing
protection could be. In this paper, we present our systematization of knowledge
for ASR security and provide a comprehensive taxonomy for existing work based
on a modularized workflow. More importantly, we align the research in this
domain with that on security in Image Recognition System (IRS), which has been
extensively studied, using the domain knowledge in the latter to help
understand where we stand in the former. Generally, both IRS and ASR are
perceptual systems. Their similarities allow us to systematically study
existing literature in ASR security based on the spectrum of attacks and
defense solutions proposed for IRS, and pinpoint the directions of more
advanced attacks and the directions potentially leading to more effective
protection in ASR. In contrast, their differences, especially the complexity of
ASR compared with IRS, help us learn unique challenges and opportunities in ASR
security. Particularly, our experimental study shows that transfer learning
across ASR models is feasible, even in the absence of knowledge about models
(even their types) and training data.
- Abstract(参考訳): 自動音声認識(asr)を人間の機械の操作、同時解釈、音声の書き起こしなどのアプリケーションで広く利用することで、そのセキュリティ保護がますます重要になっている。
近年の研究では、帯域外の信号攻撃や敵対的攻撃などを可能にする一般的なasrシステムの弱点を明らかにし、さらに様々な対策(信号の平滑化、敵意トレーニングなど)を提案した。
ASRのセキュリティ(攻撃と防衛の両方)に関する体系的な理解はいまだに欠けている。
本稿では,asrセキュリティに関する知識の体系化と,モジュール化ワークフローに基づく既存作業の包括的分類法を提案する。
さらに,画像認識システム(IRS, Image Recognition System, 画像認識システム)のセキュリティに関する研究を概観し, 後者のドメイン知識を用いて, 前者の立場を理解するのに役立てる。
一般に、irsとasrはどちらも知覚システムである。
これらの類似性は、ISRが提案する攻撃と防衛ソリューションのスペクトルに基づいて、ASRの既存の文献を体系的に研究し、より高度な攻撃の方向と、より効果的なASRの保護につながる可能性のある方向を特定できる。
対照的に、それらの違い、特にIRSと比較してASRの複雑さは、ASRセキュリティにおける固有の課題や機会を学ぶのに役立ちます。
特に,モデルに関する知識の欠如や学習データがない場合でも,ASRモデル間での移動学習が実現可能であることを示す実験的検討を行った。
関連論文リスト
- In-Context Experience Replay Facilitates Safety Red-Teaming of Text-to-Image Diffusion Models [97.82118821263825]
テキスト・ツー・イメージ(T2I)モデルは目覚ましい進歩を見せているが、有害なコンテンツを生成する可能性はまだMLコミュニティにとって重要な関心事である。
ICERは,解釈可能かつ意味論的に意味のある重要なプロンプトを生成する新しい赤チームフレームワークである。
我々の研究は、より堅牢な安全メカニズムをT2Iシステムで開発するための重要な洞察を提供する。
論文 参考訳(メタデータ) (2024-11-25T04:17:24Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - Hierarchical Framework for Interpretable and Probabilistic Model-Based
Safe Reinforcement Learning [1.3678669691302048]
本稿では,安全クリティカルシステムにおける深層強化学習の新たなアプローチを提案する。
確率論的モデリングと強化学習の利点と、解釈可能性の利点を兼ね備えている。
論文 参考訳(メタデータ) (2023-10-28T20:30:57Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Liability regimes in the age of AI: a use-case driven analysis of the
burden of proof [1.7510020208193926]
人工知能(AI)を利用した新しいテクノロジーは、私たちの社会をより良く、破壊的に変革する可能性を秘めている。
しかし、安全と基本的権利の両方に潜在的なリスクをもたらす、これらの方法論の固有の特性に対する懸念が高まっている。
本稿では,これらの難易度を示す3つのケーススタディと,それらに到達するための方法論について述べる。
論文 参考訳(メタデータ) (2022-11-03T13:55:36Z) - Watch What You Pretrain For: Targeted, Transferable Adversarial Examples
on Self-Supervised Speech Recognition models [27.414693266500603]
攻撃対象の敵攻撃は、自動音声認識システムに攻撃テキストを出力させる音声サンプルを生成する。
近年の研究では、大きなASRモデルに対する転送性は非常に難しいことが示されている。
現代のASRアーキテクチャ、特にセルフ・スーパーバイザード・ラーニングに基づくアーキテクチャは、実際にトランスファービリティーに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2022-09-17T15:01:26Z) - Synergistic Redundancy: Towards Verifiable Safety for Autonomous
Vehicles [10.277825331268179]
我々は、自律走行車(AV)のような複雑なサイバー物理システムのための安全アーキテクチャとして、シナジスティック冗長性(SR)を提案する。
SRは、システムのミッションと安全タスクを分離することで、特定の障害に対する検証可能な安全保証を提供する。
ミッション層との密接な調整により、システム内の安全クリティカルな障害を容易かつ早期に検出することができる。
論文 参考訳(メタデータ) (2022-09-04T23:52:03Z) - Adversarial Attacks on ASR Systems: An Overview [21.042752545701976]
過去数年間、ASRシステムに対する敵の事例攻撃について多くの研究がなされている。
本稿では,ASRシステムの開発,攻撃の仮定の相違,攻撃の評価方法について述べる。
論文 参考訳(メタデータ) (2022-08-03T06:46:42Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。