論文の概要: A Hardware-oriented Approach for Efficient Active Inference Computation and Deployment
- arxiv url: http://arxiv.org/abs/2508.13177v1
- Date: Tue, 12 Aug 2025 09:39:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.629784
- Title: A Hardware-oriented Approach for Efficient Active Inference Computation and Deployment
- Title(参考訳): 効率的な能動推論計算と展開のためのハードウェア指向アプローチ
- Authors: Nikola Pižurica, Nikola Milović, Igor Jovančević, Conor Heins, Miguel de Prado,
- Abstract要約: 本研究は, pymdp の柔軟性と効率性を, ハードウェア効率に最適化された, 疎結合な計算グラフに統合することにより, AIF の展開を促進する手法を提案する。
当社のアプローチでは,2倍以上のレイテンシとメモリを最大35%削減し,リアルタイムおよび組み込みアプリケーションに効率的なAIFエージェントをデプロイする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active Inference (AIF) offers a robust framework for decision-making, yet its computational and memory demands pose challenges for deployment, especially in resource-constrained environments. This work presents a methodology that facilitates AIF's deployment by integrating pymdp's flexibility and efficiency with a unified, sparse, computational graph tailored for hardware-efficient execution. Our approach reduces latency by over 2x and memory by up to 35%, advancing the deployment of efficient AIF agents for real-time and embedded applications.
- Abstract(参考訳): アクティブ推論(AIF)は、意思決定のための堅牢なフレームワークを提供するが、その計算とメモリ要求は、特にリソース制約のある環境で、デプロイメントに課題をもたらす。
本研究は, pymdp の柔軟性と効率性を, ハードウェア効率に最適化された, 疎結合な計算グラフに統合することにより, AIF の展開を促進する手法を提案する。
当社のアプローチでは,2倍以上のレイテンシとメモリを最大35%削減し,リアルタイムおよび組み込みアプリケーションに効率的なAIFエージェントをデプロイする。
関連論文リスト
- Hierarchical Task Offloading for UAV-Assisted Vehicular Edge Computing via Deep Reinforcement Learning [11.695622067301128]
部分オフロードに基づく2層UAV支援エッジコンピューティングアーキテクチャを提案する。
提案アーキテクチャは異種資源の効率的な統合と調整を可能にする。
提案手法は,タスク完了率,システム効率,収束速度において,いくつかのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-07-08T07:10:52Z) - EfficientVLA: Training-Free Acceleration and Compression for Vision-Language-Action Models [21.42353501209045]
VLA(Vision-Language-Action)モデルは、エンボディインテリジェンスに対する変換ポテンシャルを示すが、高い計算とメモリ要求によって著しく妨げられる。
本稿では,構造化およびトレーニング不要な推論促進フレームワークであるEfficientVLAを紹介する。
提案手法を標準VLAモデルであるCogACTに適用し,予測速度を1.93倍に向上し,FLOPを28.9%に削減し,SIMPLERベンチマークでは0.6%の成功率の低下に留まった。
論文 参考訳(メタデータ) (2025-06-11T18:34:57Z) - A Simple and Effective Reinforcement Learning Method for Text-to-Image Diffusion Fine-tuning [61.403275660120606]
強化学習(Reinforcement Learning, RL)に基づく微調整は, 拡散モデルとブラックボックスの目的を整合させる強力なアプローチとして登場した。
拡散微調整のための新しいRLであるLOOP(Left-one-out PPO)を提案する。
以上の結果から, LOOPは様々なブラックボックス対象の拡散モデルを効果的に改善し, 計算効率と性能のバランスを良くすることを示す。
論文 参考訳(メタデータ) (2025-03-02T13:43:53Z) - EdgeMLBalancer: A Self-Adaptive Approach for Dynamic Model Switching on Resource-Constrained Edge Devices [0.0]
エッジデバイス上の機械学習は、リソース制約のある環境でリアルタイムAIアプリケーションを可能にする。
計算資源を管理する既存のソリューションは、しばしば正確さやエネルギー効率に焦点を絞っている。
エッジデバイス上でのCPU利用とリソース管理を最適化する自己適応型アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-10T14:11:29Z) - Secure Resource Allocation via Constrained Deep Reinforcement Learning [49.15061461220109]
リソース割り当て、タスクオフロード、セキュリティ、パフォーマンスのバランスをとるフレームワークであるSARMTOを紹介します。
SARMTOは5つのベースラインアプローチを一貫して上回り、最大40%のシステムコスト削減を実現している。
これらの拡張は、複雑な分散コンピューティング環境におけるリソース管理に革命をもたらすSARMTOの可能性を強調している。
論文 参考訳(メタデータ) (2025-01-20T15:52:43Z) - Neural Horizon Model Predictive Control -- Increasing Computational Efficiency with Neural Networks [0.0]
予測制御をモデル化するための機械学習支援手法を提案する。
安全保証を維持しつつ,問題地平線の一部を近似することを提案する。
提案手法は,迅速な制御応答を必要とするアプリケーションを含む,幅広いアプリケーションに適用可能である。
論文 参考訳(メタデータ) (2024-08-19T08:13:37Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。