論文の概要: Embedding-Assisted Attentional Deep Learning for Real-World RF
Fingerprinting of Bluetooth
- arxiv url: http://arxiv.org/abs/2210.02897v1
- Date: Thu, 22 Sep 2022 17:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 17:21:50.646361
- Title: Embedding-Assisted Attentional Deep Learning for Real-World RF
Fingerprinting of Bluetooth
- Title(参考訳): bluetoothのリアルタイムrf指紋認証のための埋め込み型注意深層学習
- Authors: Anu Jagannath and Jithin Jagannath
- Abstract要約: 実際のBluetoothデバイスの指紋認証に適した埋め込み型注意フレームワーク(Mbed-ATN)を提案する。
提案するMbed-ATNフレームワークは, アンチエイリアスデシメーションと1MSの入力サンプル長が大きい場合, 5.32倍のTPR, 37.9%の誤報, 6.74倍の精度で, 現実環境下での精度が向上することを示した。
- 参考スコア(独自算出の注目度): 1.218340575383456
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A scalable and computationally efficient framework is designed to fingerprint
real-world Bluetooth devices. We propose an embedding-assisted attentional
framework (Mbed-ATN) suitable for fingerprinting actual Bluetooth devices. Its
generalization capability is analyzed in different settings and the effect of
sample length and anti-aliasing decimation is demonstrated. The embedding
module serves as a dimensionality reduction unit that maps the high dimensional
3D input tensor to a 1D feature vector for further processing by the ATN
module. Furthermore, unlike the prior research in this field, we closely
evaluate the complexity of the model and test its fingerprinting capability
with real-world Bluetooth dataset collected under a different time frame and
experimental setting while being trained on another. Our study reveals 7.3x and
65.2x lesser memory usage with Mbed-ATN architecture in contrast to Oracle at
input sample lengths of M=10 kS and M=100 kS respectively. Further, the
proposed Mbed-ATN showcases 16.9X fewer FLOPs and 7.5x lesser trainable
parameters when compared to Oracle. Finally, we show that when subject to
anti-aliasing decimation and at greater input sample lengths of 1 MS, the
proposed Mbed-ATN framework results in a 5.32x higher TPR, 37.9% fewer false
alarms, and 6.74x higher accuracy under the challenging real-world setting.
- Abstract(参考訳): スケーラブルで計算効率の良いフレームワークは、現実世界のbluetoothデバイスを指紋化するように設計されている。
実際のBluetoothデバイスの指紋認証に適した埋め込み型注意フレームワーク(Mbed-ATN)を提案する。
その一般化能力は異なる設定で解析され、サンプル長とアンチエイリアスデシメーションの効果が示される。
埋め込みモジュールは、高次元3次元入力テンソルをATNモジュールによるさらなる処理のために1D特徴ベクトルにマッピングする次元還元ユニットとして機能する。
さらに,この分野での先行研究と異なり,モデルの複雑さを綿密に評価し,異なる時間枠と実験環境下で収集した実世界のBluetoothデータセットを用いて指紋認証機能をテストする。
Mbed-ATN アーキテクチャでは M=10 kS と M=100 kS の入力サンプル長で Oracle とは対照的に,メモリ使用量が 7.3x と 65.2x より少ない。
さらに、提案されたMbed-ATNでは、Oracleと比較して16.9倍のFLOPと7.5倍のトレーニング可能なパラメータが示される。
最後に,Mbed-ATN フレームワークは, アンチエイリアスデシメーションおよび1MS の入力サンプル長が大きい場合, 5.32倍のTPR, 37.9%の誤報, 6.74倍の精度が得られることを示した。
関連論文リスト
- High-Speed Detector For Low-Powered Devices In Aerial Grasping [16.940649285960028]
Fast Fruit Detector (FFD) は、資源効率が高く、シングルステージで、後処理のない物体検出器である。
FFDは最新の10W NVIDIA Jetson-NX組み込みデバイスで100FPS@FP32精度を達成した。
論文 参考訳(メタデータ) (2024-02-22T14:44:50Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - Efficient Deep Learning Models for Privacy-preserving People Counting on
Low-resolution Infrared Arrays [11.363207467478134]
赤外線(IR)アレイセンサーは低コストで省エネでプライバシー保護のソリューションを提供する。
これまでの研究は、ディープラーニング(DL)がこのタスクにおいて優れたパフォーマンスが得られることを示した。
商業用8x8アレイから収集したIR画像からなる新しいデータセット上で,6種類のDLアーキテクチャを比較した。
論文 参考訳(メタデータ) (2023-04-12T15:29:28Z) - Ultra-low Power Deep Learning-based Monocular Relative Localization
Onboard Nano-quadrotors [64.68349896377629]
この研究は、2つのピアナノドロンのディープニューラルネットワーク(DNN)を介して、単分子の相対的な局所化に対処する、新しい自律的なエンドツーエンドシステムを示す。
超制約ナノドローンプラットフォームに対処するため,データセットの増大,量子化,システム最適化などを含む垂直統合フレームワークを提案する。
実験の結果,DNNは低分解能モノクローム画像のみを用いて最大2mの距離で10cmのターゲットナノドローンを正確に局在させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-03T14:14:08Z) - The case for 4-bit precision: k-bit Inference Scaling Laws [75.4335600212427]
量子化法は、モデル内の各パラメータを表すために必要なビット数を減少させる。
最終的なモデルサイズは、元のモデルのパラメータの数と圧縮率の両方に依存する。
我々は16ビットの入力とkビットのパラメータを持つ35,000以上のゼロショット実験を行い、どの量子化手法が3ビットから8ビットの精度でスケーリングを改善するかを検証した。
論文 参考訳(メタデータ) (2022-12-19T18:48:33Z) - RF Fingerprinting Needs Attention: Multi-task Approach for Real-World
WiFi and Bluetooth [1.0312968200748116]
ドメイン横断型マルチタスクアーキテクチャであるxDomが本研究で紹介されている。
我々は、リッチなマルチパスおよび避けられない干渉環境において、実世界のIoT WiFiおよびBluetooth(BT)エミッションを利用する。
シングルタスクWiFiおよびBTフィンガープリントにおいて,最大59.3%,4.91倍の性能向上を報告した。
論文 参考訳(メタデータ) (2022-09-07T13:38:06Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。