論文の概要: Enabling Next-Generation Consumer Experience with Feature Coding for Machines
- arxiv url: http://arxiv.org/abs/2512.09232v1
- Date: Wed, 10 Dec 2025 01:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.359096
- Title: Enabling Next-Generation Consumer Experience with Feature Coding for Machines
- Title(参考訳): マシンの機能コーディングによる次世代消費者エクスペリエンスの実現
- Authors: Md Eimran Hossain Eimon, Juan Merlos, Ashan Perera, Hari Kalva, Velibor Adzic, Borko Furht,
- Abstract要約: 本稿では,移動画像専門家グループが開発したMPEG-AIの一部として,最新の特徴符号化(FCM)標準の概要を述べる。
FCMは、中間的ニューラルネットワーク機能の効率的な抽出、圧縮、送信を可能にすることで、AI駆動のアプリケーションをサポートする。
実験の結果、FCM標準は、リモート推論と比較して、要件を75.90%削減しながら、同じレベルの精度を維持していることがわかった。
- 参考スコア(独自算出の注目度): 0.8240941653749977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As consumer devices become increasingly intelligent and interconnected, efficient data transfer solutions for machine tasks have become essential. This paper presents an overview of the latest Feature Coding for Machines (FCM) standard, part of MPEG-AI and developed by the Moving Picture Experts Group (MPEG). FCM supports AI-driven applications by enabling the efficient extraction, compression, and transmission of intermediate neural network features. By offloading computationally intensive operations to base servers with high computing resources, FCM allows low-powered devices to leverage large deep learning models. Experimental results indicate that the FCM standard maintains the same level of accuracy while reducing bitrate requirements by 75.90% compared to remote inference.
- Abstract(参考訳): コンシューマデバイスがますますインテリジェントで相互接続化されていくにつれ、マシンタスクのための効率的なデータ転送ソリューションが不可欠になっている。
本稿では,MPEG-AIの一部であり,移動画像専門家グループ(MPEG)によって開発された最新のFCM(Feature Coding for Machines)について概説する。
FCMは、中間的ニューラルネットワーク機能の効率的な抽出、圧縮、送信を可能にすることで、AI駆動のアプリケーションをサポートする。
FCMは計算集約的な操作を高いコンピューティングリソースを持つベースサーバにオフロードすることで、低消費電力デバイスが大規模なディープラーニングモデルを活用することを可能にする。
実験結果から、FCM標準は同じレベルの精度を維持しつつ、ビットレート要求を75.90%削減していることが示された。
関連論文リスト
- Task-Oriented Feature Compression for Multimodal Understanding via Device-Edge Co-Inference [54.53508601749513]
本稿では,マルチモーダル理解のためのタスク指向特徴圧縮(TOFC)手法を提案する。
圧縮効率を向上させるために、視覚特徴の特性に基づいて複数のエントロピーモデルを適応的に選択する。
その結果,TOFCはデータ転送オーバーヘッドを最大52%削減し,システム遅延を最大63%削減できることがわかった。
論文 参考訳(メタデータ) (2025-03-17T08:37:22Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Compressing Pre-trained Transformers via Low-Bit NxM Sparsity for
Natural Language Understanding [20.75335227098455]
大規模な事前学習型トランスフォーマーネットワークは、多くの自然言語理解タスクにおいて劇的に改善されている。
NM半構造スパーシリティと低精度整数計算の両方をサポートする新しいハードウェアは、モデル提供効率を高めるための有望な解決策である。
本研究では,同時スペーシフィケーションと量子化を行うフレキシブル圧縮フレームワークNxMiFormerを提案する。
論文 参考訳(メタデータ) (2022-06-30T04:33:50Z) - Collaborative Intelligent Reflecting Surface Networks with Multi-Agent
Reinforcement Learning [63.83425382922157]
インテリジェント・リフレクション・サーフェス(IRS)は将来の無線ネットワークに広く応用されることが想定されている。
本稿では,エネルギー収穫能力を備えた協調型IRSデバイスを用いたマルチユーザ通信システムについて検討する。
論文 参考訳(メタデータ) (2022-03-26T20:37:14Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。