論文の概要: Quantum-Enhanced Transformers for Robust Acoustic Scene Classification in IoT Environments
- arxiv url: http://arxiv.org/abs/2501.09394v1
- Date: Thu, 16 Jan 2025 09:06:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:10:54.706933
- Title: Quantum-Enhanced Transformers for Robust Acoustic Scene Classification in IoT Environments
- Title(参考訳): IoT環境におけるロバスト音響シーン分類のための量子化変換器
- Authors: Minh K. Quan, Mayuri Wijayasundara, Sujeeva Setunge, Pubudu N. Pathirana,
- Abstract要約: この研究は、IoTネットワークにインテリジェントな音響センサーを配置する方法を開拓し、スマートホーム、産業監視、環境監視に応用する可能性がある。
QASCの精度は68.3%から88.5%で、最先端の手法よりも5%以上高い。
この研究は、IoTネットワークにインテリジェントな音響センサーを配置する方法を開拓し、スマートホーム、産業監視、環境監視に応用する可能性がある。
- 参考スコア(独自算出の注目度): 1.3045945456375774
- License:
- Abstract: The proliferation of Internet of Things (IoT) devices equipped with acoustic sensors necessitates robust acoustic scene classification (ASC) capabilities, even in noisy and data-limited environments. Traditional machine learning methods often struggle to generalize effectively under such conditions. To address this, we introduce Q-ASC, a novel Quantum-Inspired Acoustic Scene Classifier that leverages the power of quantum-inspired transformers. By integrating quantum concepts like superposition and entanglement, Q-ASC achieves superior feature learning and enhanced noise resilience compared to classical models. Furthermore, we introduce a Quantum Variational Autoencoder (QVAE) based data augmentation technique to mitigate the challenge of limited labeled data in IoT deployments. Extensive evaluations on the Tampere University of Technology (TUT) Acoustic Scenes 2016 benchmark dataset demonstrate that Q-ASC achieves remarkable accuracy between 68.3% and 88.5% under challenging conditions, outperforming state-of-the-art methods by over 5% in the best case. This research paves the way for deploying intelligent acoustic sensing in IoT networks, with potential applications in smart homes, industrial monitoring, and environmental surveillance, even in adverse acoustic environments.
- Abstract(参考訳): 音響センサを備えたIoT(Internet of Things)デバイスの普及は、ノイズやデータ制限のある環境においても、堅牢な音響シーン分類(ASC)機能を必要とする。
従来の機械学習手法は、そのような条件下で効果的に一般化するのに苦労することが多い。
量子インスパイアされた変圧器のパワーを利用する新しい量子インスパイアされた音響シーン分類器であるQ-ASCを紹介する。
重ね合わせや絡み合わせのような量子概念を統合することで、Q-ASCは古典モデルに比べて優れた特徴学習と高ノイズ耐性を実現する。
さらに、IoTデプロイメントにおけるラベル付きデータ制限の課題を軽減するために、QVAE(Quantum Variational Autoencoder)ベースのデータ拡張技術を導入する。
Tampere University of Technology (TUT) Acoustic Scenes 2016ベンチマークデータセットの大規模な評価は、Q-ASCが挑戦的な条件下で68.3%から88.5%の顕著な精度を達成し、最高のケースでは最先端の手法を5%以上上回っていることを示している。
この研究は、IoTネットワークにインテリジェントな音響センサーを配置する方法を開拓し、スマートホーム、産業監視、環境監視、さらには有害な音響環境にも応用できる可能性がある。
関連論文リスト
- Towards Robust Transcription: Exploring Noise Injection Strategies for Training Data Augmentation [55.752737615873464]
本研究では,SNR(Signal-to-Noise Ratio)レベルにおける白色雑音の影響について検討した。
この研究は、様々な音環境における一貫した性能を維持する転写モデルの開発に向けた予備的な研究として、貴重な洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2024-10-18T02:31:36Z) - Quantum-Trained Convolutional Neural Network for Deepfake Audio Detection [3.2927352068925444]
ディープフェイク技術は プライバシー セキュリティ 情報整合性に 課題をもたらす
本稿では,ディープフェイク音声の検出を強化するために,量子学習型畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-11T20:52:10Z) - SONAR: A Synthetic AI-Audio Detection Framework and Benchmark [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供することを目的としている。
従来のモデルとファンデーションベースのディープフェイク検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Self-Adaptive Quantum Kernel Principal Components Analysis for Compact Readout of Chemiresistive Sensor Arrays [0.6435156676256051]
情報保持性を高めるために,自己適応型量子カーネル(SAQK) PCAを提案する。
その結果は、実世界のIoTアプリケーションでデータ処理に革命をもたらす、ノイズの多い中間スケール量子コンピュータの可能性を強調している。
論文 参考訳(メタデータ) (2024-08-28T04:07:40Z) - Quanv4EO: Empowering Earth Observation by means of Quanvolutional Neural Networks [62.12107686529827]
本稿は、大量のリモートセンシングデータの処理において、量子コンピューティング技術を活用することへの大きなシフトを取り上げる。
提案したQuanv4EOモデルでは,多次元EOデータを前処理するための準進化法が導入された。
主要な知見は,提案モデルが画像分類の精度を維持するだけでなく,EOのユースケースの約5%の精度向上を図っていることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T09:11:34Z) - ActiveRIR: Active Audio-Visual Exploration for Acoustic Environment Modeling [57.1025908604556]
環境音響モデルは、室内環境の物理的特性によって音がどのように変換されるかを表す。
本研究では,非マップ環境の環境音響モデルを効率的に構築する新しい課題であるアクティブ音響サンプリングを提案する。
我々は,音声・視覚センサストリームからの情報を利用してエージェントナビゲーションを誘導し,最適な音響データサンプリング位置を決定する強化学習ポリシーであるActiveRIRを紹介する。
論文 参考訳(メタデータ) (2024-04-24T21:30:01Z) - On the Efficiency and Robustness of Vibration-based Foundation Models for IoT Sensing: A Case Study [7.0723456126359245]
本稿では,(クラスの)IoTアプリケーションにおける実行時推論の堅牢性を改善するために,未ラベルのセンシングデータで事前学習した振動ベースファンデーションモデル(FM)の可能性を示す。
音響・地震探査を用いた車両分類を応用したケーススタディが提案されている。
論文 参考訳(メタデータ) (2024-04-03T05:04:06Z) - Enhancing Power Quality Event Classification with AI Transformer Models [1.0590597091788065]
本稿では,PQEを正確に分類するツールとして,注目対応トランスフォーマーを活用したディープラーニングフレームワークを提案する。
信号対雑音比、DCオフセット、信号振幅と周波数の変化に応じて99.81%$-91.43%の精度でPQEを正確に分類することができる。
論文 参考訳(メタデータ) (2024-02-22T20:09:58Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - EEG-NeXt: A Modernized ConvNet for The Classification of Cognitive
Activity from EEG [0.0]
脳波(EEG)に基づく脳-コンピュータインタフェース(BCI)システムにおける大きな課題の1つは、認知活動の分類のために主題/セッション不変の特徴を学習することである。
転送学習を容易にする新しいエンドツーエンド機械学習パイプラインであるEEG-NeXtを提案する。
論文 参考訳(メタデータ) (2022-12-08T10:15:52Z) - A Lottery Ticket Hypothesis Framework for Low-Complexity Device-Robust
Neural Acoustic Scene Classification [78.04177357888284]
デバイス・ロバスト音響シーン分類(ASC)のためのデータ拡張、知識伝達、プルーニング、量子化を組み合わせた新しいニューラルモデル圧縮戦略を提案する。
本稿では,低複雑マルチデバイスASCのためのアコースティック・ロッテリー(Austratic Lottery)という,効率的なジョイント・フレームワークについて報告する。
論文 参考訳(メタデータ) (2021-07-03T16:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。