論文の概要: BitRL-Light: 1-bit LLM Agents with Deep Reinforcement Learning for Energy-Efficient Smart Home Lighting Optimization
- arxiv url: http://arxiv.org/abs/2512.20623v1
- Date: Sun, 23 Nov 2025 16:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-29 00:37:57.086675
- Title: BitRL-Light: 1-bit LLM Agents with Deep Reinforcement Learning for Energy-Efficient Smart Home Lighting Optimization
- Title(参考訳): BitRL-Light:エネルギー効率の良いスマートホーム照明最適化のための深層強化学習用1ビットLLMエージェント
- Authors: Ravi Gupta, Shabista Haider,
- Abstract要約: BitRL-Lightはエッジデバイス上でのリアルタイムスマートホーム照明制御のための新しいフレームワークである。
本手法では,Raspberry Piハードウェア上で1ビット量子化Llama-3.2-1Bモデルをデプロイし,全精度モデルに比べて71.4倍のエネルギー削減を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Smart home lighting systems consume 15-20% of residential energy but lack adaptive intelligence to optimize for user comfort and energy efficiency simultaneously. We present BitRL-Light, a novel framework combining 1-bit quantized Large Language Models (LLMs) with Deep Q-Network (DQN) reinforcement learning for real-time smart home lighting control on edge devices. Our approach deploys a 1-bit quantized Llama-3.2-1B model on Raspberry Pi hardware, achieving 71.4 times energy reduction compared to full-precision models while maintaining intelligent control capabilities. Through multi-objective reinforcement learning, BitRL-Light learns optimal lighting policies from user feedback, balancing energy consumption, comfort, and circadian alignment. Experimental results demonstrate 32% energy savings compared to rule-based systems, with inference latency under 200ms on Raspberry Pi 4 and 95% user satisfaction. The system processes natural language commands via Google Home/IFTTT integration and learns from implicit feedback through manual overrides. Our comparative analysis shows 1-bit models achieve 5.07 times speedup over 2-bit alternatives on ARM processors while maintaining 92% task accuracy. This work establishes a practical framework for deploying adaptive AI on resource-constrained IoT devices, enabling intelligent home automation without cloud dependencies.
- Abstract(参考訳): スマートホーム照明システムは住宅エネルギーの15~20%を消費するが、ユーザーの快適さとエネルギー効率を同時に最適化するための適応知能が欠如している。
我々は1ビット量子化大言語モデル(LLM)とディープQネットワーク(DQN)強化学習を組み合わせた新しいフレームワークBitRL-Lightを提案する。
提案手法は1ビット量子化Llama-3.2-1BモデルをRaspberry Piハードウェア上に展開し,知的制御能力を維持しつつ,完全精度モデルに比べて71.4倍のエネルギー削減を実現している。
多目的強化学習を通じて、BitRL-Lightは、ユーザのフィードバック、エネルギー消費のバランス、快適さ、概日リズムから最適な照明ポリシーを学習する。
実験の結果、Raspberry Pi 4で200ms未満の遅延と95%のユーザ満足度で、ルールベースのシステムと比較して32%の省エネ効果が示された。
このシステムはGoogle Home/IFTTT統合を通じて自然言語コマンドを処理し、手動のオーバーライドを通じて暗黙のフィードバックから学習する。
比較分析によると、1ビットモデルはARMプロセッサで5.07倍の高速化を実現し、92%のタスク精度を維持している。
この作業は、リソース制約のあるIoTデバイスにアダプティブAIをデプロイするための実践的なフレームワークを確立し、クラウド依存なしにインテリジェントなホームオートメーションを可能にする。
関連論文リスト
- SkyRL-Agent: Efficient RL Training for Multi-turn LLM Agent [63.15417992240217]
本稿では,SkyRL-Agentについて紹介する。
効率的な非同期ディスパッチ、軽量ツールの統合、柔軟なバックエンドの相互運用性を提供する。
我々は、Qwen3-32B (24.4% Pass@1)からトレーニングを受けたソフトウェアエンジニアリングエージェントであるSA-SWE-32Bを、純粋に強化学習で訓練する。
論文 参考訳(メタデータ) (2025-11-20T07:05:19Z) - Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks [29.49941497527361]
Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
本稿では,Physics-informed Neural Networks (PINN) を用いて構築したサロゲートモデルを用いて,コストのかかるスマートグリッドシミュレータを置換することで,この問題に対処する。
論文 参考訳(メタデータ) (2025-10-20T10:17:42Z) - QeRL: Beyond Efficiency -- Quantization-enhanced Reinforcement Learning for LLMs [80.76334908639745]
大規模言語モデル(LLM)のための量子化強化学習フレームワークQeRLを提案する。
QeRLは、NVFP4量子化とローランド適応(LoRA)を組み合わせた問題に対処する。
実験によると、QeRLはロールアウトフェーズで1.5倍以上のスピードアップを実現している。
論文 参考訳(メタデータ) (2025-10-13T17:55:09Z) - LLMPi: Optimizing LLMs for High-Throughput on Raspberry Pi [0.48212500317840945]
Raspberry Piのようなリソース制約のあるエッジデバイス上の大規模言語モデル(LLM)は、計算効率、消費電力、レスポンスレイテンシの課題を提示している。
本稿では,低消費電力組込みシステム上でのLLMの高スループット・エネルギー効率実行を実現するために,量子化に基づく最適化手法について検討する。
我々の発見は、エッジデバイス上でリアルタイムの対話型AIのための量子LLMの可能性を強調し、モバイルおよび組み込みアプリケーションにおける低消費電力で高効率なAIデプロイメントの道を開いた。
論文 参考訳(メタデータ) (2025-04-02T20:29:39Z) - Adaptive Data Exploitation in Deep Reinforcement Learning [50.53705050673944]
深層強化学習(RL)における**データ効率**と**一般化**を強化する強力なフレームワークであるADEPTを紹介する。
具体的には、ADEPTはマルチアーム・バンディット(MAB)アルゴリズムを用いて、異なる学習段階にわたるサンプルデータの使用を適応的に管理する。
Procgen、MiniGrid、PyBulletなどのベンチマークでADEPTをテストする。
論文 参考訳(メタデータ) (2025-01-22T04:01:17Z) - E-QUARTIC: Energy Efficient Edge Ensemble of Convolutional Neural Networks for Resource-Optimized Learning [9.957458251671486]
Convolutional Neural Networks(CNN)のようなモデルを組み立てると、メモリとコンピューティングのオーバーヘッドが高くなり、組み込みシステムへのデプロイが妨げられる。
人工知能(AI)をベースとした組込みシステムを対象としたCNNのアンサンブルを構築するための,新しいエネルギー効率の良いエッジ組立フレームワークであるE-QUARTICを提案する。
論文 参考訳(メタデータ) (2024-09-12T19:30:22Z) - DigiRL: Training In-The-Wild Device-Control Agents with Autonomous Reinforcement Learning [61.10299147201369]
本稿では,Wild デバイス制御エージェントをトレーニングするための新しい自律型 RL 手法である DigiRL を提案する。
VLMベースの評価器を備えた,スケーラブルで並列化可能なAndroid学習環境を構築する。
我々はAndroid-in-the-Wildデータセットを使用してDigiRLの有効性を実証し、RLでトレーニングした1.3B VLMは49.5%の絶対改善を実現した。
論文 参考訳(メタデータ) (2024-06-14T17:49:55Z) - Simulating Battery-Powered TinyML Systems Optimised using Reinforcement Learning in Image-Based Anomaly Detection [0.0]
この研究は、バッテリ駆動のイメージベースの異常検出(IoT)システムを最適化することによって、TinyMLの研究を拡張し、貢献する。
提案したソリューションは、800Bのメモリフットプリントが低いため、リソース制約のあるハードウェアにデプロイすることができる。
これにより、スマート農業などの重要な分野を含む、そのようなシステムの現実的な展開が促進される。
論文 参考訳(メタデータ) (2024-03-08T07:09:56Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。