論文の概要: Enabling Next-Generation Consumer Experience with Feature Coding for Machines
- arxiv url: http://arxiv.org/abs/2512.09232v1
- Date: Wed, 10 Dec 2025 01:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.359096
- Title: Enabling Next-Generation Consumer Experience with Feature Coding for Machines
- Title(参考訳): マシンの機能コーディングによる次世代消費者エクスペリエンスの実現
- Authors: Md Eimran Hossain Eimon, Juan Merlos, Ashan Perera, Hari Kalva, Velibor Adzic, Borko Furht,
- Abstract要約: 本稿では,移動画像専門家グループが開発したMPEG-AIの一部として,最新の特徴符号化(FCM)標準の概要を述べる。
FCMは、中間的ニューラルネットワーク機能の効率的な抽出、圧縮、送信を可能にすることで、AI駆動のアプリケーションをサポートする。
実験の結果、FCM標準は、リモート推論と比較して、要件を75.90%削減しながら、同じレベルの精度を維持していることがわかった。
- 参考スコア(独自算出の注目度): 0.8240941653749977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As consumer devices become increasingly intelligent and interconnected, efficient data transfer solutions for machine tasks have become essential. This paper presents an overview of the latest Feature Coding for Machines (FCM) standard, part of MPEG-AI and developed by the Moving Picture Experts Group (MPEG). FCM supports AI-driven applications by enabling the efficient extraction, compression, and transmission of intermediate neural network features. By offloading computationally intensive operations to base servers with high computing resources, FCM allows low-powered devices to leverage large deep learning models. Experimental results indicate that the FCM standard maintains the same level of accuracy while reducing bitrate requirements by 75.90% compared to remote inference.
- Abstract(参考訳): コンシューマデバイスがますますインテリジェントで相互接続化されていくにつれ、マシンタスクのための効率的なデータ転送ソリューションが不可欠になっている。
本稿では,MPEG-AIの一部であり,移動画像専門家グループ(MPEG)によって開発された最新のFCM(Feature Coding for Machines)について概説する。
FCMは、中間的ニューラルネットワーク機能の効率的な抽出、圧縮、送信を可能にすることで、AI駆動のアプリケーションをサポートする。
FCMは計算集約的な操作を高いコンピューティングリソースを持つベースサーバにオフロードすることで、低消費電力デバイスが大規模なディープラーニングモデルを活用することを可能にする。
実験結果から、FCM標準は同じレベルの精度を維持しつつ、ビットレート要求を75.90%削減していることが示された。
関連論文リスト
- Feature Coding for Scalable Machine Vision [0.8240941653749977]
ディープニューラルネットワーク(DNN)は、現代的なマシンビジョンを駆動するが、高い計算要求のためにエッジデバイスにデプロイすることは困難である。
本稿では特徴符号化テストモデル(FCTM)の設計と性能について述べる。
FCMは、帯域幅に制限されたプライバシに敏感なコンシューマアプリケーションにインテリジェントな機能を効率よく、スケーラブルにデプロイするためのパスを提供する。
論文 参考訳(メタデータ) (2025-12-11T01:58:07Z) - Intra-DP: A High Performance Collaborative Inference System for Mobile Edge Computing [67.98609858326951]
Intra-DPはモバイルデバイス上でのディープニューラルネットワーク(DNN)に最適化された高性能な協調推論システムである。
推論毎のレイテンシを最大50%削減し、最先端のベースラインと比較してエネルギー消費量を最大75%削減する。
評価の結果,DP内の遅延は,最先端のベースラインと比較して最大50%,エネルギー消費は最大75%減少することがわかった。
論文 参考訳(メタデータ) (2025-07-08T09:50:57Z) - Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Compressing Pre-trained Transformers via Low-Bit NxM Sparsity for
Natural Language Understanding [20.75335227098455]
大規模な事前学習型トランスフォーマーネットワークは、多くの自然言語理解タスクにおいて劇的に改善されている。
NM半構造スパーシリティと低精度整数計算の両方をサポートする新しいハードウェアは、モデル提供効率を高めるための有望な解決策である。
本研究では,同時スペーシフィケーションと量子化を行うフレキシブル圧縮フレームワークNxMiFormerを提案する。
論文 参考訳(メタデータ) (2022-06-30T04:33:50Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Differentiable Network Pruning for Microcontrollers [14.864940447206871]
本稿では,畳み込みニューラルネットワークのための可変構造型ネットワークプルーニング法を提案する。
モデル固有のリソース使用量とパラメータ重要度フィードバックを統合し、高度に圧縮されかつ正確な分類モデルを得る。
論文 参考訳(メタデータ) (2021-10-15T20:26:15Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。