論文の概要: Scalable Event-Based Video Streaming for Machines with MoQ
- arxiv url: http://arxiv.org/abs/2508.15003v1
- Date: Wed, 20 Aug 2025 18:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.067952
- Title: Scalable Event-Based Video Streaming for Machines with MoQ
- Title(参考訳): MoQを用いたマシン向けスケーラブルなイベントベースビデオストリーミング
- Authors: Andrew C. Freeman,
- Abstract要約: ニューロモルフィックイベントセンサの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
本稿では,Media Over QUICプロトコルのドラフトへの最新の追加に基づいて,新しい低レイテンシイベントストリーミングフォーマットを提案する。
- 参考スコア(独自算出の注目度): 0.8158530638728501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lossy compression and rate-adaptive streaming are a mainstay in traditional video steams. However, a new class of neuromorphic ``event'' sensors records video with asynchronous pixel samples rather than image frames. These sensors are designed for computer vision applications, rather than human video consumption. Until now, researchers have focused their efforts primarily on application development, ignoring the crucial problem of data transmission. We survey the landscape of event-based video systems, discuss the technical issues with our recent scalable event streaming work, and propose a new low-latency event streaming format based on the latest additions to the Media Over QUIC protocol draft.
- Abstract(参考訳): ロスシー圧縮とレート順応ストリーミングは、従来のビデオ蒸気のメインステイである。
しかし、ニューロモルフィックな `event' センサーの新しいクラスは、画像フレームではなく非同期のピクセルサンプルでビデオを記録する。
これらのセンサーは、人間のビデオ消費ではなく、コンピュータビジョンの応用のために設計されている。
これまで研究者は、データ伝送の重要な問題を無視して、主にアプリケーション開発に力を入れてきた。
我々は、イベントベースのビデオシステムの状況を調査し、最近のスケーラブルなイベントストリーミングの技術的問題について議論し、Media Over QUICプロトコルのドラフトへの最新の追加に基づいて、新しい低レイテンシなイベントストリーミングフォーマットを提案する。
関連論文リスト
- UniE2F: A Unified Diffusion Framework for Event-to-Frame Reconstruction with Video Foundation Models [67.24086328473437]
イベントカメラは絶対強度よりも相対強度の変化を記録できる。
結果として得られたデータストリームは、空間情報と静的テクスチャの詳細が著しく失われることに悩まされる。
本稿では、事前学習したビデオ拡散モデルを用いて、スパースイベントデータから高忠実度ビデオフレームを再構成することで、この制限に対処する。
論文 参考訳(メタデータ) (2026-02-22T14:06:49Z) - A Preprocessing Framework for Video Machine Vision under Compression [26.253209831074184]
本稿では,この課題に対処するために,マシンビジョンタスクに適したビデオ前処理フレームワークを提案する。
提案手法は,後続のタスクにおいて重要な情報を保持するニューラルプリプロセッサを組み込んでおり,その結果,レート精度が向上する。
論文 参考訳(メタデータ) (2025-12-17T11:26:19Z) - adder-viz: Real-Time Visualization Software for Transcoding Event Video [0.21485350418225238]
イベントビデオはビデオフレームを省略し、非同期でピクセルごとの強度サンプルを選択できる。
我々はこれらの懸念に対処する統合ADDER表現を以前提案した。
本稿では,実時間イベントトランスコードプロセスとループ内アプリケーションを可視化するアドバンスビズソフトウェアについて,多数の改良を加えている。
論文 参考訳(メタデータ) (2025-08-20T18:33:07Z) - Embedding Compression Distortion in Video Coding for Machines [67.97469042910855]
現在、ビデオ伝送は人間の視覚システム(HVS)だけでなく、分析のための機械認識にも役立っている。
本稿では,機械知覚関連歪み表現を抽出し,下流モデルに埋め込む圧縮歪埋め込み(CDRE)フレームワークを提案する。
我々のフレームワークは,実行時間,パラメータ数といったオーバーヘッドを最小限に抑えて,既存のコーデックのレートタスク性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2025-03-27T13:01:53Z) - EvAnimate: Event-conditioned Image-to-Video Generation for Human Animation [58.41979933166173]
EvAnimateは、条件付き人間の画像アニメーションにおいて、イベントストリームを堅牢で正確なモーションキューとして活用する最初の方法である。
高品質で時間的コヒーレントなアニメーションはデュアルブランチアーキテクチャによって実現される。
実験結果から,従来の映像由来のキューが短いシナリオにおいて,EvAnimateは時間的忠実度が高く,頑健なパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2025-03-24T11:05:41Z) - StreamChat: Chatting with Streaming Video [85.02875830683637]
StreamChatは、大規模マルチモーダルモデルとストリーミングビデオコンテンツとのインタラクション機能を強化する新しいアプローチである。
動的ストリーミング入力を処理するために,フレキシブルで効率的なクロスアテンションベースのアーキテクチャを導入する。
我々は,ストリーミングインタラクションモデルのトレーニングを容易にするために,新しい高密度な命令データセットを構築した。
論文 参考訳(メタデータ) (2024-12-11T18:59:54Z) - Low-Latency Scalable Streaming for Event-Based Vision [0.5242869847419834]
本稿では,Media Over QUICに基づくイベントベースデータに対するスケーラブルなストリーミング手法を提案する。
我々は、最先端のオブジェクト検出アプリケーションが、劇的なデータ損失に対して回復力があることを示す。
我々は、検出mAPを0.36まで下げる平均的な減少を観察した。
論文 参考訳(メタデータ) (2024-12-10T19:48:57Z) - Rethinking Video with a Universal Event-Based Representation [0.0]
本稿では,新しい中間映像表現・システムフレームワークDeltaERについて紹介する。
私はADDeltaERが時間的冗長性の高いシーンに対して最先端のアプリケーション速度と圧縮性能を達成することを実証する。
大規模ビデオ監視とリソース制約センシングにおけるイベントベースビデオの影響について論じる。
論文 参考訳(メタデータ) (2024-08-12T16:00:17Z) - E2HQV: High-Quality Video Generation from Event Camera via
Theory-Inspired Model-Aided Deep Learning [53.63364311738552]
バイオインスパイアされたイベントカメラやダイナミックビジョンセンサーは、高時間分解能と高ダイナミックレンジでピクセルごとの明るさ変化(イベントストリームと呼ばれる)を捉えることができる。
イベントストリームを入力として取り出し、直感的な視覚化のために高品質なビデオフレームを生成する、イベント間ビデオ(E2V)ソリューションを求めている。
イベントから高品質なビデオフレームを生成するために設計された新しいE2VパラダイムであるtextbfE2HQVを提案する。
論文 参考訳(メタデータ) (2024-01-16T05:10:50Z) - Accelerated Event-Based Feature Detection and Compression for
Surveillance Video Systems [1.5390526524075634]
スパース圧縮表現において時間的冗長性を伝達する新しいシステムを提案する。
我々はADDERと呼ばれるビデオ表現フレームワークを利用して、フレーム化されたビデオを疎結合で非同期な強度サンプルに変換する。
我々の研究は、今後のニューロモルフィックセンサーの道を切り拓き、スパイクニューラルネットワークによる将来の応用に有効である。
論文 参考訳(メタデータ) (2023-12-13T15:30:29Z) - Leveraging Bitstream Metadata for Fast, Accurate, Generalized Compressed
Video Quality Enhancement [74.1052624663082]
圧縮ビデオの細部を復元する深層学習アーキテクチャを開発した。
これにより,従来の圧縮補正法と比較して復元精度が向上することを示す。
我々は、ビットストリームで容易に利用できる量子化データに対して、我々のモデルを条件付けする。
論文 参考訳(メタデータ) (2022-01-31T18:56:04Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。