論文の概要: MASSFormer: Mobility-Aware Spectrum Sensing using Transformer-Driven
Tiered Structure
- arxiv url: http://arxiv.org/abs/2409.17546v1
- Date: Thu, 26 Sep 2024 05:25:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:56:36.505968
- Title: MASSFormer: Mobility-Aware Spectrum Sensing using Transformer-Driven
Tiered Structure
- Title(参考訳): MASSFormer: Transformer-Driven を用いたモビリティを考慮したスペクトルセンシング
タイヤ構造
- Authors: Dimpal Janu, Sandeep Mandia, Kuldeep Singh and Sandeep Kumar
- Abstract要約: モビリティを意識したトランスフォーマー駆動構造(MASSFormer)をベースとした協調センシング手法を開発した。
本稿では,モバイルプライマリユーザ(PU)とセカンダリユーザ(SU)の動的シナリオについて考察する。
提案手法は, 堅牢性を示すために, 不完全な報告チャネルのシナリオ下で試験される。
- 参考スコア(独自算出の注目度): 3.6194127685460553
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we develop a novel mobility-aware transformer-driven tiered
structure (MASSFormer) based cooperative spectrum sensing method that
effectively models the spatio-temporal dynamics of user movements. Unlike
existing methods, our method considers a dynamic scenario involving mobile
primary users (PUs) and secondary users (SUs)and addresses the complexities
introduced by user mobility. The transformer architecture utilizes an attention
mechanism, enabling the proposed method to adeptly model the temporal dynamics
of user mobility by effectively capturing long-range dependencies within the
input data. The proposed method first computes tokens from the sequence of
covariance matrices (CMs) for each SU and processes them in parallel using the
SUtransformer network to learn the spatio-temporal features at SUlevel.
Subsequently, the collaborative transformer network learns the group-level PU
state from all SU-level feature representations. The attention-based sequence
pooling method followed by the transformer encoder adjusts the contributions of
all tokens. The main goal of predicting the PU states at each SU-level and
group-level is to improve detection performance even more. We conducted a
sufficient amount of simulations and compared the detection performance of
different SS methods. The proposed method is tested under imperfect reporting
channel scenarios to show robustness. The efficacy of our method is validated
with the simulation results demonstrating its higher performance compared with
existing methods in terms of detection probability, sensing error, and
classification accuracy.
- Abstract(参考訳): 本稿では,ユーザの動きの時空間的ダイナミクスを効果的にモデル化する,新しいモビリティ・アウェア・トランスフォーマー駆動型タイred Structure (MASSFormer) を用いた協調スペクトルセンシング手法を提案する。
既存の手法とは違って,モバイルプライマリユーザ (PU) とセカンダリユーザ (SU) の動的シナリオを考慮し,ユーザモビリティがもたらす複雑さに対処する。
トランスアーキテクチャはアテンション機構を利用して,入力データ内の長距離依存性を効果的に捕捉することにより,ユーザモビリティの時間的ダイナミクスを十分にモデル化することができる。
提案手法はまず,各SUの共分散行列列(CM)からトークンを計算し,SUトランスフォーマーネットワークを用いて並列に処理し,SUレベルにおける時空間特性を学習する。
その後、協調トランスネットワークは、すべてのSUレベルの特徴表現からグループレベルのPU状態を学習する。
注意に基づくシーケンスプーリング法と変換器エンコーダは、全てのトークンのコントリビューションを調整する。
PU状態を各SUレベルおよびグループレベルで予測する主な目的は、検出性能をさらに向上することである。
シミュレーションを十分に行ない,異なるSS法の検出性能を比較した。
提案手法は, 堅牢性を示すために, 不完全な報告チャネルのシナリオ下で試験される。
本手法の有効性は,検出確率,検出誤差,分類精度の観点から,既存の手法と比較して高い性能を示すシミュレーション結果を用いて検証した。
関連論文リスト
- PointMT: Efficient Point Cloud Analysis with Hybrid MLP-Transformer Architecture [46.266960248570086]
本研究は,効率的な特徴集約のための複雑局所的注意機構を導入することで,自己注意機構の二次的複雑さに取り組む。
また,各チャネルの注目重量分布を適応的に調整するパラメータフリーチャネル温度適応機構を導入する。
我々は,PointMTが性能と精度の最適なバランスを維持しつつ,最先端手法に匹敵する性能を実現することを示す。
論文 参考訳(メタデータ) (2024-08-10T10:16:03Z) - Pyramid Hierarchical Transformer for Hyperspectral Image Classification [1.9427851979929982]
ピラミッド型階層変換器(PyFormer)を提案する。
この革新的なアプローチは、入力データを階層的にセグメントにまとめ、それぞれが異なる抽象レベルを表す。
その結果,従来の手法よりも提案手法の方が優れていることが示された。
論文 参考訳(メタデータ) (2024-04-23T11:41:19Z) - Real-Time Motion Prediction via Heterogeneous Polyline Transformer with
Relative Pose Encoding [121.08841110022607]
既存のエージェント中心の手法は、公開ベンチマークで顕著な性能を示した。
K-nearest neighbor attention with relative pose encoding (KNARPE) は、トランスフォーマーがペアワイズ相対表現を使用できる新しいアテンション機構である。
エージェント間でコンテキストを共有し、変化しないコンテキストを再利用することで、私たちのアプローチはシーン中心のメソッドと同じくらい効率的になり、最先端のエージェント中心のメソッドと同等に実行されます。
論文 参考訳(メタデータ) (2023-10-19T17:59:01Z) - Sequence-to-Sequence Model with Transformer-based Attention Mechanism
and Temporal Pooling for Non-Intrusive Load Monitoring [0.0]
本研究の目的は, 深層学習を用いた非侵入負荷モニタリング(NILM)の精度向上である。
提案手法は,変圧器に基づくアテンション機構を備えたSeq2Seqモデルを用いて,NILMデータの長期依存関係をキャプチャする。
論文 参考訳(メタデータ) (2023-06-08T08:04:56Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - SeqCo-DETR: Sequence Consistency Training for Self-Supervised Object
Detection with Transformers [18.803007408124156]
本稿では,SeqCo-DETRを提案する。SeqCo-DETR,SeqCo-DETR,SeqCo-DETR,SeqCo-DETR,SeqCo-DETR,SeqCo-DETR,SeqCo-DETR,Sequence Consistency-based self-supervised method for object DEtection with TRansformersを提案する。
提案手法は,MS COCO (45.8 AP) とPASCAL VOC (64.1 AP) の最先端化を実現し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-15T09:36:58Z) - ProFormer: Learning Data-efficient Representations of Body Movement with
Prototype-based Feature Augmentation and Visual Transformers [31.908276711898548]
身体からのデータ効率の高い認識法は、画像のような配列として構造化された骨格配列をますます活用している。
我々は、このパラダイムをトランスフォーマーネットワークの観点から見て、初めて、骨格運動のデータ効率の高いエンコーダとして視覚トランスフォーマーを探索する。
私たちのパイプラインでは、画像のような表現としてキャストされたボディポーズシーケンスをパッチ埋め込みに変換し、深いメトリック学習に最適化されたビジュアルトランスフォーマーバックボーンに渡します。
論文 参考訳(メタデータ) (2022-02-23T11:11:54Z) - Real-Time Scene Text Detection with Differentiable Binarization and
Adaptive Scale Fusion [62.269219152425556]
セグメンテーションに基づくシーンテキスト検出手法はシーンテキスト検出分野において大きな注目を集めている。
本稿では,二項化処理をセグメンテーションネットワークに統合する分散二項化(DB)モジュールを提案する。
アダプティブ・スケール・フュージョン (ASF) モジュールは, 異なるスケールの特徴を適応的に融合させることにより, スケールのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-02-21T15:30:14Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。