論文の概要: Sensor Calibration Model Balancing Accuracy, Real-time, and Efficiency
- arxiv url: http://arxiv.org/abs/2511.06715v1
- Date: Mon, 10 Nov 2025 05:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.084893
- Title: Sensor Calibration Model Balancing Accuracy, Real-time, and Efficiency
- Title(参考訳): センサキャリブレーションモデルバランシング精度, リアルタイム, 効率
- Authors: Jinyong Yun, Hyungjin Kim, Seokho Ahn, Euijong Lee, Young-Duk Seo,
- Abstract要約: Scare (Sensor model balance, Real-time, Accuracy and efficiency) は8つの顕微鏡的要件を同時に満たす超圧縮トランスである。
Scare は,(1) ビン間の境界情報を保持しながら時系列データを対数的に圧縮するシーケンスレンズプロジェクタ (SLP) ,(2) コストのかかる乗算をバイナリハッシュコードによるビットワイズ操作に置き換える効率的なビットワイズアテンション (EBA) モジュール,(3) 補助損失項のない安定したトレーニングを保証するハッシュ最適化戦略の3つのコアコンポーネントから構成される。
- 参考スコア(独自算出の注目度): 4.212937192948915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most on-device sensor calibration studies benchmark models only against three macroscopic requirements (i.e., accuracy, real-time, and resource efficiency), thereby hiding deployment bottlenecks such as instantaneous error and worst-case latency. We therefore decompose this triad into eight microscopic requirements and introduce Scare (Sensor Calibration model balancing Accuracy, Real-time, and Efficiency), an ultra-compressed transformer that fulfills them all. SCARE comprises three core components: (1) Sequence Lens Projector (SLP) that logarithmically compresses time-series data while preserving boundary information across bins, (2) Efficient Bitwise Attention (EBA) module that replaces costly multiplications with bitwise operations via binary hash codes, and (3) Hash optimization strategy that ensures stable training without auxiliary loss terms. Together, these components minimize computational overhead while maintaining high accuracy and compatibility with microcontroller units (MCUs). Extensive experiments on large-scale air-quality datasets and real microcontroller deployments demonstrate that Scare outperforms existing linear, hybrid, and deep-learning baselines, making Scare, to the best of our knowledge, the first model to meet all eight microscopic requirements simultaneously.
- Abstract(参考訳): ほとんどのオンデバイスセンサーキャリブレーション研究は、3つのマクロ的要件(精度、リアルタイム、リソース効率)に対してのみモデルをベンチマークし、即時エラーや最悪のケースレイテンシといったデプロイメントボトルネックを隠蔽する。
そこで我々は、このトリアドを8つの顕微鏡的要件に分解し、これらをすべて満たす超圧縮トランスであるScare(精度、リアルタイム、効率のバランスをとるセンサキャリブレーションモデル)を導入する。
SCAREは,(1) ビン間の境界情報を保持しながら時系列データを対数的に圧縮するシーケンスレンズプロジェクタ(SLP),(2) コストのかかる乗算をバイナリハッシュコードによるビットワイズ操作に置き換える効率的なビットワイズアテンション(EBA)モジュール,(3) 補助損失項のない安定したトレーニングを保証するハッシュ最適化戦略の3つのコアコンポーネントから構成される。
これらのコンポーネントは、高い精度とマイクロコントローラユニット(MCU)との互換性を維持しながら、計算オーバーヘッドを最小化する。
大規模な空気質データセットと実際のマイクロコントローラの展開に関する大規模な実験は、Scareが既存の線形、ハイブリッド、ディープラーニングベースラインより優れており、Scareが私たちの知る限り、初めて8つの顕微鏡的要件をすべて同時に満たしたモデルであることを示している。
関連論文リスト
- Scalable, Explainable and Provably Robust Anomaly Detection with One-Step Flow Matching [14.503330877000758]
Time-Conditioned Contraction Matching is a novel method for semi-supervised anomaly detection in tabular data。
これは、確率分布間の速度場を学習する最近の生成モデリングフレームワークであるフローマッチングにインスパイアされている。
ADBenchベンチマークの大規模な実験により、TCCMは検出精度と推論コストのバランスが良好であることが示されている。
論文 参考訳(メタデータ) (2025-10-21T06:26:38Z) - Fast and Accurate RFIC Performance Prediction via Pin Level Graph Neural Networks and Probabilistic Flow [0.5599792629509228]
本研究は,アクティブRF回路の重要な性能指標を予測するために,軽量かつデータ効率,トポロジ対応グラフニューラルネットワーク(GNN)モデルを提案する。
回路はデバイス-端末レベルでモデル化され、データ要求を減らしながらスケーラブルなメッセージパッシングを可能にする。
データセットの実験では、対称平均絶対パーセンテージ誤差(sMAPE)と平均相対誤差(MRE)はそれぞれ平均2.40%と2.91%と高い予測精度を示している。
論文 参考訳(メタデータ) (2025-08-22T14:06:21Z) - Analysis of Hyperparameter Optimization Effects on Lightweight Deep Models for Real-Time Image Classification [0.0]
本研究では,ConvNeXt-T,EfficientV2-S,MobileNetV3-L,MobileViT v2(S/XS),RepVGG-A2,TinyViT-21Mの7つの軽量アーキテクチャの精度と展開可能性を評価する。
チューニングだけでは、ベースラインを1.5から3.5パーセント上回るトップ1の精度向上につながり、選択されたモデルでは、レイテンシが5ミリ秒未満で、毎秒9800フレームを超える。
論文 参考訳(メタデータ) (2025-07-31T07:47:30Z) - POLARON: Precision-aware On-device Learning and Adaptive Runtime-cONfigurable AI acceleration [0.0]
本研究は,効率的な乗算累積演算を行うSIMD対応マルチ精度MACエンジンを提案する。
このアーキテクチャは、計算精度をワークロードの感度に合わせるための層適応的精度戦略を取り入れている。
その結果,PDPは最大で2倍,資源使用量は3倍に改善した。
論文 参考訳(メタデータ) (2025-06-10T13:33:02Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [46.47343031985037]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Real-time Calibration Model for Low-cost Sensor in Fine-grained Time series [6.648146664198283]
対数重み付き注意力を利用した効果的なセンサキャリブレーションのためのTESLA, Transformer と呼ばれるモデルを開発した。
TESLAは高性能なディープラーニングモデルであるTransformersを使用して、非線形コンポーネントの校正とキャプチャを行う。
実験により、TESLAは既存の新しいディープラーニングモデルよりも精度、キャリブレーション速度、エネルギー効率が優れていることが示された。
論文 参考訳(メタデータ) (2024-12-28T14:58:46Z) - DB-LLM: Accurate Dual-Binarization for Efficient LLMs [83.70686728471547]
大規模言語モデル(LLM)は自然言語処理の分野を著しく進歩させてきた。
既存の超低ビット量子化は、常に深刻な精度低下を引き起こす。
本稿では,LLM,すなわちDB-LLMのための新しいデュアルバイナライズ手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T09:04:30Z) - Sketching as a Tool for Understanding and Accelerating Self-attention
for Long Sequences [52.6022911513076]
トランスフォーマーベースのモデルは、自己アテンションモジュールの二次空間と時間的複雑さのために、長いシーケンスを処理するのに効率的ではない。
我々はLinformerとInformerを提案し、低次元投影と行選択により2次複雑性を線形(モジュラー対数因子)に還元する。
理論的解析に基づいて,Skeinformerを提案することにより,自己注意の促進と,自己注意への行列近似の精度の向上を図ることができる。
論文 参考訳(メタデータ) (2021-12-10T06:58:05Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。