論文の概要: RVDebloater: Mode-based Adaptive Firmware Debloating for Robotic Vehicles
- arxiv url: http://arxiv.org/abs/2602.00270v1
- Date: Fri, 30 Jan 2026 19:46:08 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-02-03 13:38:58.63428
- Title: RVDebloater: Mode-based Adaptive Firmware Debloating for Robotic Vehicles
- Title(参考訳): RVDebloater:ロボット自動車用モードベース適応ファームウェアデブロ
- Authors: Mohsen Salehi, Karthik Pattabiraman,
- Abstract要約: モードベースの組み込みデバイスのための新しい適応型デブロレーション手法であるRVDebloaterを提案する。
RVDebloaterは、静的または動的解析を使用して、各モードの不要なファームウェアコードを識別する。
実行時の関数レベルで各モードのファームウェアを動的にデブロートする。
- 参考スコア(独自算出の注目度): 13.936830637955444
- License:
- Abstract: As the number of embedded devices grows and their functional requirements increase, embedded firmware is becoming increasingly larger, thereby expanding its attack surface. Despite the increase in firmware size, many embedded devices, such as robotic vehicles (RVs), operate in distinct modes, each requiring only a small subset of the firmware code at runtime. We refer to such devices as mode-based embedded devices. Debloating is an approach to reduce attack surfaces by removing or restricting unneeded code, but existing techniques suffer from significant limitations, such as coarse granularity and irreversible code removal, limiting their applicability. To address these limitations, we propose RVDebloater, a novel adaptive debloating technique for mode-based embedded devices that automatically identifies unneeded firmware code for each mode using either static or dynamic analysis, and dynamically debloats the firmware for each mode at the function level at runtime. RVDebloater introduces a new software-based enforcement approach that supports diverse mode-based embedded devices. We implemented RVDebloater using the LLVM compiler and evaluated its efficiency and effectiveness on six different RVs, including both simulated and real ones, with different real-world missions. We find that device requirements change throughout its lifetime for each mode, and that many critical firmware functions can be restricted in other modes, with an average of 85% of functions not being required. The results showed that none of the missions failed after debloating with RVDebloater, indicating that it neither incurred false positives nor false negatives. Further, RVDebloater prunes the firmware call graph by an average of 45% across different firmware. Finally, RVDebloater incurred an average performance overhead of 3.9% and memory overhead of 4% (approximately 0.25 MB) on real RVs.
- Abstract(参考訳): 組込みデバイスの増加と機能要件の増大に伴い、組込みファームウェアはますます大きくなり、攻撃面が拡大している。
ファームウェアのサイズが大きくなるにもかかわらず、ロボット車両(RV)のような多くの組み込みデバイスは異なるモードで動作し、それぞれ実行時にファームウェアコードの小さなサブセットしか必要としない。
このようなデバイスをモードベースの組み込みデバイスと呼ぶ。
Debloatingは、不要なコードを取り除いたり制限したりすることで攻撃面を減らすアプローチだが、既存のテクニックは、粗い粒度や不可逆なコード削除といった重大な制限に悩まされており、適用性が制限されている。
これらの制約に対処するために, RVDebloaterを提案する。モードベースの組み込みデバイスにおいて, 静的解析と動的解析のいずれかを用いて, 不要なファームウェアコードを自動的に識別し, 実行時に各モードのファームウェアを動的にデブロートする手法である。
RVDebloaterは、様々なモードベースの組み込みデバイスをサポートする、ソフトウェアベースの新しい強制アプローチを導入した。
LLVM コンパイラを用いて RVDebloater を実装し,実環境のミッションでシミュレーションと実環境の両方を含む6種類の RV の効率と有効性を評価した。
各モードごとにデバイス要件が一生にわたって変化し、多くの重要なファームウェア関数が他のモードで制限され、平均85%の関数が不要であることがわかった。
その結果、RVDebloaterでデブロしたミッションはいずれも失敗しておらず、偽陽性でも偽陰性でもないことが示された。
さらに、RVDebloaterはファームウェアコールグラフを、異なるファームウェアで平均45%の精度で作成する。
最後に、RVDebloaterは、実際のRVで平均的なパフォーマンスオーバーヘッドが3.9%、メモリオーバーヘッドが4%(約0.25MB)に達した。
関連論文リスト
- MOBIUS: Big-to-Mobile Universal Instance Segmentation via Multi-modal Bottleneck Fusion and Calibrated Decoder Pruning [91.90342432541138]
モデルサイズとトレーニングデータのスケールアップには、インスタンスレベルの知覚のための高度な基盤モデルがある。
資源制約されたプラットフォームにおける高い計算コスト制限。
我々は,高性能コンピューティングプラットフォームとモバイルデバイスの両方において,効率的なセグメンテーションのための新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-10-16T18:00:00Z) - AndesVL Technical Report: An Efficient Mobile-side Multimodal Large Language Model [40.488271586857884]
AndesVLはQwen3のLLMと様々なビジュアルエンコーダに基づいて0.6Bから4Bのパラメータを持つモバイル側のMLLMのスイートである。
効率的なタスク適応とモデル圧縮を容易にするために,Quantization-Aware LoRA Fine-Tuningフレームワークとともに1+N LoRAアーキテクチャを導入する。
我々は、MediaTek Dimensity 9500チップにAndesVL-4Bをデプロイする際に、最大6.7倍のピーク復号率、最大30.9%のメモリ削減、1.8ビット/ウェイトを実現した。
論文 参考訳(メタデータ) (2025-10-13T15:04:38Z) - In-memory Training on Analog Devices with Limited Conductance States via Multi-tile Residual Learning [59.091567092071564]
インメモリトレーニングは通常、デジタルベースラインに合わせて少なくとも8ビットのコンダクタンス状態を必要とする。
ReRAMのような多くの有望な中間デバイスは、製造制約のため、約4ビットの解像度しか提供しない。
本稿では,残差を補うために複数のクロスバータイルを逐次学習する語彙学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-02T19:44:25Z) - Next Block Prediction: Video Generation via Semi-Autoregressive Modeling [92.60177942930946]
Next-Block Prediction (NBP) は、ビデオ生成のための半自己回帰(セミAR)フレームワークである。
NBPは各ブロック内で双方向の注意を払っており、トークンはより堅牢な空間依存をキャプチャすることができる。
本モデルでは,UCF101では103.3点,K600では25.5点,バニラNTPモデルでは4.4点,FVDスコアは25.5点であった。
論文 参考訳(メタデータ) (2025-02-11T17:57:53Z) - Hardware-Aware DNN Compression for Homogeneous Edge Devices [14.60818325379295]
ホモジニアス・デバイス・アウェア・プルーニング(HDAP)は、すべてのデバイスで圧縮されたモデルの最適平均性能を達成することを目的としている。
HDAPはすべてのデバイスを複数のデバイスクラスタに分割する。
実験の結果,HDAPは最先端の手法に比べて平均推論遅延が低いことがわかった。
論文 参考訳(メタデータ) (2025-01-25T15:14:18Z) - AI and Memory Wall [81.06494558184049]
メモリ帯域幅がデコーダモデルの主要なボトルネックとなることを示す。
私たちは、このメモリ制限を克服するためのモデルアーキテクチャ、トレーニング、デプロイメント戦略の再設計を主張します。
論文 参考訳(メタデータ) (2024-03-21T04:31:59Z) - AIM: Automatic Interrupt Modeling for Dynamic Firmware Analysis [14.623460803437057]
AIMは汎用的でスケーラブルで、ハードウェアに依存しない動的ファームウェア分析フレームワークである。
AIMは、ファームウェアにおける割り込み依存コードを、新しい、ファームウェア誘導のジャスト・イン・タイム・イン・タイム・イン・タイム・インターファイリング技術によってカバーする。
私たちのフレームワークは、最先端のアプローチよりも11.2倍の割り込み依存のコードをカバーしています。
論文 参考訳(メタデータ) (2023-12-02T18:06:22Z) - On-Device Training Under 256KB Memory [62.95579393237751]
本稿では,256KBのメモリでデバイス上でのトレーニングを可能にするアルゴリズム・システム協調設計フレームワークを提案する。
私たちのフレームワークは256KBと1MBのFlashで畳み込みニューラルネットワークのデバイス上での小さなトレーニングを可能にする最初のソリューションです。
論文 参考訳(メタデータ) (2022-06-30T17:59:08Z) - A TinyML Platform for On-Device Continual Learning with Quantized Latent
Replays [66.62377866022221]
Latent Replay-based Continual Learning (CL)技術は、原則としてオンライン、サーバレスの適応を可能にする。
10コアのFP32対応並列超低消費電力プロセッサをベースとした,エンドツーエンドCLのためのHW/SWプラットフォームを提案する。
これらの手法を組み合わせることで,64MB未満のメモリを用いて連続学習を実現することができることを示す。
論文 参考訳(メタデータ) (2021-10-20T11:01:23Z) - Efficiency-driven Hardware Optimization for Adversarially Robust Neural
Networks [3.125321230840342]
効率性の高いハードウェア最適化を通じて、Deep Neural Networks(DNN)の対比ロバスト性に対処する方法に焦点を当てます。
そのようなアプローチの1つは、低電力運転をもたらす供給スケーリング(Vdd)を可能にするハイブリッド6T-8TセルによるおよそのデジタルCMOSメモリです。
別のメモリ最適化アプローチは、低エネルギーと面積の要件でマトリックス乗算(MVM)を効率的に実行する記念的なクロスバーの作成を含む。
論文 参考訳(メタデータ) (2021-05-09T19:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。