論文の概要: Improving Acoustic Side-Channel Attacks on Keyboards Using Transformers and Large Language Models
- arxiv url: http://arxiv.org/abs/2502.09782v2
- Date: Mon, 17 Feb 2025 18:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:17:07.149868
- Title: Improving Acoustic Side-Channel Attacks on Keyboards Using Transformers and Large Language Models
- Title(参考訳): 変圧器と大規模言語モデルを用いたキーボードのアコースティックサイドチャネルアタックの改善
- Authors: Jin Hyun Park, Seyyed Ali Ayati, Yichen Cai,
- Abstract要約: 本研究では,アコースティックサイドチャネルアタック(ASCA)の有効性と適用性を高めるための深層学習手法について検討する。
我々は、CoAtNetモデルを用いて、先行研究よりも大幅に改善し、最先端の性能を実現した。
重要な進歩は、現実のシナリオに対するノイズ緩和手法の導入である。
- 参考スコア(独自算出の注目度): 1.1674893622721483
- License:
- Abstract: The increasing prevalence of microphones in everyday devices and the growing reliance on online services have amplified the risk of acoustic side-channel attacks (ASCAs) targeting keyboards. This study explores deep learning techniques, specifically vision transformers (VTs) and large language models (LLMs), to enhance the effectiveness and applicability of such attacks. We present substantial improvements over prior research, with the CoAtNet model achieving state-of-the-art performance. Our CoAtNet shows a 5.0% improvement for keystrokes recorded via smartphone (Phone) and 5.9% for those recorded via Zoom compared to previous benchmarks. We also evaluate transformer architectures and language models, with the best VT model matching CoAtNet's performance. A key advancement is the introduction of a noise mitigation method for real-world scenarios. By using LLMs for contextual understanding, we detect and correct erroneous keystrokes in noisy environments, enhancing ASCA performance. Additionally, fine-tuned lightweight language models with Low-Rank Adaptation (LoRA) deliver comparable performance to heavyweight models with 67X more parameters. This integration of VTs and LLMs improves the practical applicability of ASCA mitigation, marking the first use of these technologies to address ASCAs and error correction in real-world scenarios.
- Abstract(参考訳): 日常的なデバイスにおけるマイクロフォンの普及とオンラインサービスへの依存の高まりにより、キーボードをターゲットにしたアコースティックサイドチャネルアタック(ASCA)のリスクが増大している。
本研究では,ディープラーニング,特に視覚変換器(VT)と大規模言語モデル(LLM)について検討し,これらの攻撃の有効性と適用性を高める。
我々は、CoAtNetモデルを用いて、先行研究よりも大幅に改善し、最先端の性能を実現した。
私たちのCoAtNetは、スマートフォン(Phone)で記録されたキーストロークを5.0%改善し、Zoomで記録したキーストロークを5.9%改善しました。
また、変換器アーキテクチャと言語モデルの評価を行い、CoAtNetの性能に最適なVTモデルを提案する。
重要な進歩は、現実のシナリオに対するノイズ緩和手法の導入である。
文脈的理解のためにLLMを用いることで,ノイズの多い環境下での誤キーストロークを検出し,修正し,ASCA性能を向上させる。
加えて、Low-Rank Adaptation (LoRA)による微調整された軽量言語モデルは、67倍のパラメータを持つ重み付けモデルに匹敵するパフォーマンスを提供する。
VT と LLM の統合により、現実のシナリオにおけるASCA とエラー訂正にこれらの技術が最初に使用されることにより、ASCA の実用性が向上する。
関連論文リスト
- Improving Anomalous Sound Detection via Low-Rank Adaptation Fine-Tuning of Pre-Trained Audio Models [45.90037602677841]
本稿では,音声事前学習モデルを利用した頑健なAnomalous Sound Detection (ASD)モデルを提案する。
マシン操作データを用いてこれらのモデルを微調整し、データ拡張戦略としてSpecAugを使用します。
実験では,従来のSOTAモデルと比較して6.48%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-09-11T05:19:38Z) - Robust VAEs via Generating Process of Noise Augmented Data [9.366139389037489]
本稿では,原データと雑音増大データ間の潜時空間のばらつきを規則化し,ロバスト性を高める新しい枠組みを提案する。
実験により,ロバスト拡張変分オートエンコーダ(RAVEN)と呼ばれるこの手法は,対向入力に対して優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-07-26T09:55:34Z) - AdvLoRA: Adversarial Low-Rank Adaptation of Vision-Language Models [47.50206551100736]
視覚言語モデル(VLM)は人工知能(AGI)の重要な技術である
本稿では,VLMの従来の適応手法の脆弱性を実証し,セキュリティ上の重大なリスクをもたらす可能性があることを示す。
パラメータ効率の高いアンダーラインAdvLoRAをアンダーラインLow-underlineRankアンダーライン適応により提案する。
論文 参考訳(メタデータ) (2024-04-20T17:19:54Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Improving Speech Inversion Through Self-Supervised Embeddings and Enhanced Tract Variables [2.048226951354646]
自己教師付き学習(SSL)モデルを用いて得られた音声表現を利用することによる影響について検討する。
また, 改良された幾何学的変換モデルを用いて, 新規なトラクション変数(TV)の組み入れについて検討した。
本研究は、SSLモデルによるリッチな特徴表現の深い影響と、SIシステムの強化機能に対するターゲットテレビによる幾何学的変換の改善を裏付けるものである。
論文 参考訳(メタデータ) (2023-09-17T09:18:04Z) - CHAPTER: Exploiting Convolutional Neural Network Adapters for
Self-supervised Speech Models [62.60723685118747]
自己教師付き学習(SSL)は、ラベルのないデータから表現を学習するための強力な技術である。
特徴抽出器にCNNアダプタを適用し,SSL音声モデルに特化して設計された効率的なチューニング手法を提案する。
特徴抽出器にCNNを追加することで、感情や話者のタスクへの適応が促進されることを実証的に見出した。
論文 参考訳(メタデータ) (2022-12-01T08:50:12Z) - Towards Intelligibility-Oriented Audio-Visual Speech Enhancement [8.19144665585397]
本稿では,STOI(Modified short-time objective intelligibility)メトリックをトレーニングコスト関数として用いた完全畳み込み型AVSEモデルを提案する。
提案するI-O AV SEフレームワークは,従来の距離に基づく損失関数を訓練したオーディオ専用(AO)およびAVモデルより優れている。
論文 参考訳(メタデータ) (2021-11-18T11:47:37Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。