論文の概要: FedLiTeCAN : A Federated Lightweight Transformer for Fast and Robust CAN Bus Intrusion Detection
- arxiv url: http://arxiv.org/abs/2512.24088v1
- Date: Tue, 30 Dec 2025 09:00:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.334809
- Title: FedLiTeCAN : A Federated Lightweight Transformer for Fast and Robust CAN Bus Intrusion Detection
- Title(参考訳): FedLiTeCAN : 高速かつロバストなCANバス侵入検知用軽量変圧器
- Authors: Devika S, Pratik Narang, Tejasvi Alladi,
- Abstract要約: この研究は、コネクテッド・アンド・オートマチック・ビークルの領域におけるIDSのための軽量トランスフォーマーモデルを実装している。
この研究は、コネクテッド・アンド・オートマチック・ビークルの領域におけるIDSのための軽量トランスフォーマーモデルを実装している。
- 参考スコア(独自算出の注目度): 5.519339465088624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work implements a lightweight Transformer model for IDS in the domain of Connected and Autonomous Vehicles
- Abstract(参考訳): この研究は、コネクテッド・アンド・オートマチック・ビークルの領域におけるIDSのための軽量トランスフォーマーモデルを実装した。
関連論文リスト
- FAST-IDS: A Fast Two-Stage Intrusion Detection System with Hybrid Compression for Real-Time Threat Detection in Connected and Autonomous Vehicles [10.525706329018103]
我々は,ハイブリッドモデル圧縮後の再資源制約環境に展開可能なCAV用多段IDSを実装した。
我々は,ハイブリッドモデル圧縮後の再資源制約環境に展開可能なCAV用多段IDSを実装した。
論文 参考訳(メタデータ) (2025-12-30T18:12:00Z) - FedSecureFormer: A Fast, Federated and Secure Transformer Framework for Lightweight Intrusion Detection in Connected and Autonomous Vehicles [34.65675915983263]
この研究は、フェデレートラーニングを用いたコネクテッドおよび自律走行車の領域における侵入検知のための最小層で構築されたエンコーダのみのトランスフォーマーを提示する。
この変換器を使用して、フェデレートラーニング(Federated Learning)を使用して、コネクテッドおよび自律走行車の領域の侵入を検出する。
論文 参考訳(メタデータ) (2025-12-30T16:55:19Z) - Chain-of-Thought Enhanced Shallow Transformers for Wireless Symbol Detection [14.363929799618283]
無線シンボル検出のためのCoT拡張浅層変圧器フレームワークCHOOSE(CHain Of thOught Symbol dEtection)を提案する。
隠れ空間内に自己回帰潜在推論ステップを導入することで、CHOOSEは浅いモデルの推論能力を大幅に改善する。
実験により,本手法は従来の浅層変圧器よりも優れ,深部変圧器に匹敵する性能が得られることが示された。
論文 参考訳(メタデータ) (2025-06-26T08:41:45Z) - A Dynamic Transformer Network for Vehicle Detection [57.4144097001218]
車両検出のための動的トランスフォーマーネットワーク(DTNet)を提案する。
DTNetは動的畳み込みを利用してディープネットワークを誘導し、重量を動的に生成し、得られた検出器の適応性を高める。
画像アカウントにおける差の欠点を克服するため、変換変分畳み込みは、取得した車両検出構造情報を洗練するために、空間的位置情報に依存する。
論文 参考訳(メタデータ) (2025-06-03T11:29:35Z) - Partial Answer of How Transformers Learn Automata [0.7148426845362116]
本稿では,表現理論的半間接積とフーリエ加群を用いて有限オートマトンをシミュレートする新しいフレームワークを提案し,より効率的なトランスフォーマーベースの実装を実現する。
論文 参考訳(メタデータ) (2025-04-29T03:35:40Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - TransFuser: Imitation with Transformer-Based Sensor Fusion for
Autonomous Driving [46.409930329699336]
本稿では,自己注意を用いた画像とLiDAR表現の統合機構であるTransFuserを提案する。
提案手法では,複数解像度のトランスフォーマーモジュールを用いて視線と鳥の視線の特徴マップを融合する。
我々は、CARLA都市運転シミュレータの公式リーダーボードと同様に、長いルートと密集した交通量を持つ挑戦的な新しいベンチマークにおいて、その効果を実験的に検証した。
論文 参考訳(メタデータ) (2022-05-31T17:57:19Z) - ViDT: An Efficient and Effective Fully Transformer-based Object Detector [97.71746903042968]
検出変換器は、オブジェクト検出のための最初のエンドツーエンド学習システムである。
視覚変換器は、画像分類のための最初の完全変換器ベースのアーキテクチャである。
本稿では、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
論文 参考訳(メタデータ) (2021-10-08T06:32:05Z) - RealFormer: Transformer Likes Residual Attention [5.841046725396454]
RealFormerはシンプルなResidual Attention Layer Transformerアーキテクチャである。
これは、Masked Language Modeling、GLUE、SQuADなどのタスクのスペクトルで正規トランスフォーマーを大幅に上回っています。
論文 参考訳(メタデータ) (2020-12-21T23:30:04Z) - Developing Real-time Streaming Transformer Transducer for Speech
Recognition on Large-scale Dataset [37.619200507404145]
Transformer Transducer (T-T) モデルは、大規模なデータセット上で、低レイテンシで高速な高速なフィストパスデコーディングのためのモデルである。
我々はTransformer-XLとチャンクワイドストリーミング処理のアイデアを組み合わせて、ストリーム可能なTransformer Transducerモデルを設計する。
ストリーミングシナリオにおいて、T-Tはハイブリッドモデル、RNNトランスデューサ(RNN-T)、ストリーム可能なトランスフォーマーアテンションベースのエンコーダデコーダモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T03:01:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。