論文の概要: Scalable Event-Based Video Streaming for Machines with MoQ
- arxiv url: http://arxiv.org/abs/2508.15003v1
- Date: Wed, 20 Aug 2025 18:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.067952
- Title: Scalable Event-Based Video Streaming for Machines with MoQ
- Title(参考訳): MoQを用いたマシン向けスケーラブルなイベントベースビデオストリーミング
- Authors: Andrew C. Freeman,
- Abstract要約: ニューロモルフィックイベントセンサの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
本稿では,Media Over QUICプロトコルのドラフトへの最新の追加に基づいて,新しい低レイテンシイベントストリーミングフォーマットを提案する。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lossy compression and rate-adaptive streaming are a mainstay in traditional video steams. However, a new class of neuromorphic ``event'' sensors records video with asynchronous pixel samples rather than image frames. These sensors are designed for computer vision applications, rather than human video consumption. Until now, researchers have focused their efforts primarily on application development, ignoring the crucial problem of data transmission. We survey the landscape of event-based video systems, discuss the technical issues with our recent scalable event streaming work, and propose a new low-latency event streaming format based on the latest additions to the Media Over QUIC protocol draft.
- Abstract(参考訳): ロスシー圧縮とレート順応ストリーミングは、従来のビデオ蒸気のメインステイである。
しかし、ニューロモルフィックな `event' センサーの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
これらのセンサーは、人間のビデオ消費ではなく、コンピュータビジョンの応用のために設計されている。
これまで研究者は、データ伝送の重要な問題を無視して、主にアプリケーション開発に力を入れてきた。
我々は、イベントベースのビデオシステムの状況を調査し、最近のスケーラブルなイベントストリーミングの技術的問題について議論し、Media Over QUICプロトコルのドラフトへの最新の追加に基づいて、新しい低レイテンシなイベントストリーミングフォーマットを提案する。
関連論文リスト
- Embedding Compression Distortion in Video Coding for Machines [67.97469042910855]
現在、ビデオ伝送は人間の視覚システム(HVS)だけでなく、分析のための機械認識にも役立っている。
本稿では,機械知覚関連歪み表現を抽出し,下流モデルに埋め込む圧縮歪埋め込み(CDRE)フレームワークを提案する。
我々のフレームワークは,実行時間,パラメータ数といったオーバーヘッドを最小限に抑えて,既存のコーデックのレートタスク性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2025-03-27T13:01:53Z) - EvAnimate: Event-conditioned Image-to-Video Generation for Human Animation [58.41979933166173]
EvAnimateは、条件付き人間の画像アニメーションにおいて、イベントストリームを堅牢で正確なモーションキューとして活用する最初の方法である。
高品質で時間的コヒーレントなアニメーションはデュアルブランチアーキテクチャによって実現される。
実験結果から,従来の映像由来のキューが短いシナリオにおいて,EvAnimateは時間的忠実度が高く,頑健なパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2025-03-24T11:05:41Z) - StreamChat: Chatting with Streaming Video [85.02875830683637]
StreamChatは、大規模マルチモーダルモデルとストリーミングビデオコンテンツとのインタラクション機能を強化する新しいアプローチである。
動的ストリーミング入力を処理するために,フレキシブルで効率的なクロスアテンションベースのアーキテクチャを導入する。
我々は,ストリーミングインタラクションモデルのトレーニングを容易にするために,新しい高密度な命令データセットを構築した。
論文 参考訳(メタデータ) (2024-12-11T18:59:54Z) - Low-Latency Scalable Streaming for Event-Based Vision [0.5242869847419834]
本稿では,Media Over QUICに基づくイベントベースデータに対するスケーラブルなストリーミング手法を提案する。
我々は、最先端のオブジェクト検出アプリケーションが、劇的なデータ損失に対して回復力があることを示す。
我々は、検出mAPを0.36まで下げる平均的な減少を観察した。
論文 参考訳(メタデータ) (2024-12-10T19:48:57Z) - Rethinking Video with a Universal Event-Based Representation [0.0]
本稿では,新しい中間映像表現・システムフレームワークDeltaERについて紹介する。
私はADDeltaERが時間的冗長性の高いシーンに対して最先端のアプリケーション速度と圧縮性能を達成することを実証する。
大規模ビデオ監視とリソース制約センシングにおけるイベントベースビデオの影響について論じる。
論文 参考訳(メタデータ) (2024-08-12T16:00:17Z) - Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems [1.5390526524075634]
スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
論文 参考訳(メタデータ) (2023-12-13T15:30:29Z) - Leveraging Bitstream Metadata for Fast, Accurate, Generalized Compressed
Video Quality Enhancement [74.1052624663082]
圧縮ビデオの細部を復元する深層学習アーキテクチャを開発した。
これにより,従来の圧縮補正法と比較して復元精度が向上することを示す。
我々は、ビットストリームで容易に利用できる量子化データに対して、我々のモデルを条件付けする。
論文 参考訳(メタデータ) (2022-01-31T18:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。