論文の概要: Learning Quantized Continuous Controllers for Integer Hardware
- arxiv url: http://arxiv.org/abs/2511.07046v3
- Date: Mon, 17 Nov 2025 13:47:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.085101
- Title: Learning Quantized Continuous Controllers for Integer Hardware
- Title(参考訳): 整数ハードウェアのための量子化連続制御器の学習
- Authors: Fabian Kresse, Christoph H. Lampert,
- Abstract要約: 組み込みハードウェア上での継続的制御強化学習には、厳密なレイテンシと電力予算が必要である。
小さなFPGAはこれらを提供することができるが、高価な浮動小数点パイプラインが避けられる場合のみである。
本稿では,低ビットポリシーを自動的に選択し,Artix-7 FPGAに合成する学習型ハードウェアパイプラインを提案する。
- 参考スコア(独自算出の注目度): 18.73809027808152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying continuous-control reinforcement learning policies on embedded hardware requires meeting tight latency and power budgets. Small FPGAs can deliver these, but only if costly floating point pipelines are avoided. We study quantization-aware training (QAT) of policies for integer inference and we present a learning-to-hardware pipeline that automatically selects low-bit policies and synthesizes them to an Artix-7 FPGA. Across five MuJoCo tasks, we obtain policy networks that are competitive with full precision (FP32) policies but require as few as 3 or even only 2 bits per weight, and per internal activation value, as long as input precision is chosen carefully. On the target hardware, the selected policies achieve inference latencies on the order of microseconds and consume microjoules per action, favorably comparing to a quantized reference. Last, we observe that the quantized policies exhibit increased input noise robustness compared to the floating-point baseline.
- Abstract(参考訳): 組み込みハードウェアに継続的制御強化学習ポリシをデプロイするには、厳格なレイテンシと電力予算を満たさなければならない。
小さなFPGAはこれらを提供することができるが、高価な浮動小数点パイプラインが避けられる場合のみである。
整数推論のためのポリシの量子化対応トレーニング(QAT)について検討し,低ビットのポリシを自動的に選択し,Artix-7 FPGAに合成する学習型ハードウェアパイプラインを提案する。
5つのMuJoCoタスクにまたがって、フル精度(FP32)ポリシーと競合するポリシネットワークを得るが、1重量あたり3ビットまたは2ビットしか必要とせず、入力精度が慎重に選択される限り、内部アクティベーション値毎に必要となる。
対象ハードウェア上では、選択されたポリシーは、マイクロ秒の順序で推論レイテンシを達成し、アクション毎にマイクロジュールを消費し、量子化された参照と好意的に比較する。
最後に、量子化ポリシーは浮動小数点ベースラインと比較して入力雑音の頑健性を増加させることを示した。
関連論文リスト
- Reinforcement Learning for Quantum Network Control with Application-Driven Objectives [53.03367590211247]
動的プログラミングと強化学習は、制御戦略を最適化するための有望なツールを提供する。
非線形で微分可能な目的関数を直接最適化する新しいRLフレームワークを提案する。
我々の研究は、RLを持つ量子ネットワークにおける非線形目的関数最適化への第一歩であり、より高度なユースケースへの道を開く。
論文 参考訳(メタデータ) (2025-09-12T18:41:10Z) - GPLQ: A General, Practical, and Lightning QAT Method for Vision Transformers [11.452135395287119]
ビジョントランスフォーマー(ViT)はコンピュータビジョンに必須だが、計算集約性もある。
モデル量子化は、この難しさを軽減することを目的としているが、既存のPTQ(Post-Training Quantization)法とQAT(Quantization-Aware Training)法は、大きな制限を呈している。
本稿では,効率的なVT量子化のための新しいフレームワークであるGPLQ(General, Practical, and Quantization)を紹介する。
論文 参考訳(メタデータ) (2025-06-13T13:45:17Z) - Demonstrating the Potential of Adaptive LMS Filtering on FPGA-Based Qubit Control Platforms for Improved Qubit Readout in 2D and 3D Quantum Processing Units [3.348076908667385]
本稿では,2次元および3次元量子処理ユニット(QPU)の読み出しパルス忠実度を最適化する研究を要約する。
我々は、量子状態検出の精度と効率を高めるために、LMS適応フィルタリングアルゴリズムの適用に焦点をあてる。
我々の予備的な結果は、FPGAリソースを効率的に管理しながら高い読み出し精度を維持するLMSフィルタの機能を示す。
論文 参考訳(メタデータ) (2024-08-01T20:42:49Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - PIPE : Parallelized Inference Through Post-Training Quantization
Ensembling of Residual Expansions [23.1120983784623]
PIPEは、残差誤差展開とグループ間隔とアンサンブル近似を利用して、より良い並列化を実現する量子化法である。
すべてのベンチマークアプリケーション(ビジョンからNLPタスクまで)、アーキテクチャ(ConvNet、トランスフォーマー、ビット幅)において、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-27T13:29:34Z) - Reducing hardware requirements for entanglement distribution via joint
hardware-protocol optimization [0.0]
我々は,処理ノード量子リピータのチェーンを用いて,最大1600kmの距離における繊維ベースの絡み合い分布の数値解析を行った。
ハードウェア要件を最小限に抑えつつ、絡み込み生成と絡み合いの浄化のためのプロトコルを同時に最適化する。
論文 参考訳(メタデータ) (2023-09-20T16:26:01Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance [49.1574468325115]
accumulator-aware Quantization (A2Q)は、量子化されたニューラルネットワーク(QNN)をトレーニングして、推論時のオーバーフローを回避するために設計された新しい重み量子化手法である。
A2Qは重み正規化にインスパイアされたユニークな定式化を導入し、アキュミュレータビット幅境界に従ってモデルの重みのL1ノルムを制約する。
A2Qは浮動小数点ベースラインと競合するモデルの精度を維持しつつ、低精度のアキュムレータのためのQNNを訓練できることを示す。
論文 参考訳(メタデータ) (2023-08-25T17:28:58Z) - A White Paper on Neural Network Quantization [20.542729144379223]
本稿では,量子化ノイズがネットワークの性能に与える影響を緩和する最新アルゴリズムを提案する。
我々は,ポストトレーニング量子化(PTQ)と量子化アウェア・トレーニング(QAT)の2つのアルゴリズムについて考察する。
論文 参考訳(メタデータ) (2021-06-15T17:12:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。