論文の概要: Tracking Virtual Meetings in the Wild: Re-identification in Multi-Participant Virtual Meetings
- arxiv url: http://arxiv.org/abs/2409.09841v1
- Date: Sun, 15 Sep 2024 19:37:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 17:10:28.412659
- Title: Tracking Virtual Meetings in the Wild: Re-identification in Multi-Participant Virtual Meetings
- Title(参考訳): 野生における仮想ミーティングの追跡:多人数仮想ミーティングにおける再同定
- Authors: Oriel Perl, Ido Leshem, Uria Franko, Yuval Goldman,
- Abstract要約: 遠隔ビデオ会議の参加者を追跡・再同定するための新しい手法を提案する。
本手法は, YOLOをベースラインとしたトラッキング手法と比較して, 誤差率を平均95%削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, workplaces and educational institutes have widely adopted virtual meeting platforms. This has led to a growing interest in analyzing and extracting insights from these meetings, which requires effective detection and tracking of unique individuals. In practice, there is no standardization in video meetings recording layout, and how they are captured across the different platforms and services. This, in turn, creates a challenge in acquiring this data stream and analyzing it in a uniform fashion. Our approach provides a solution to the most general form of video recording, usually consisting of a grid of participants (\cref{fig:videomeeting}) from a single video source with no metadata on participant locations, while using the least amount of constraints and assumptions as to how the data was acquired. Conventional approaches often use YOLO models coupled with tracking algorithms, assuming linear motion trajectories akin to that observed in CCTV footage. However, such assumptions fall short in virtual meetings, where participant video feed window can abruptly change location across the grid. In an organic video meeting setting, participants frequently join and leave, leading to sudden, non-linear movements on the video grid. This disrupts optical flow-based tracking methods that depend on linear motion. Consequently, standard object detection and tracking methods might mistakenly assign multiple participants to the same tracker. In this paper, we introduce a novel approach to track and re-identify participants in remote video meetings, by utilizing the spatio-temporal priors arising from the data in our domain. This, in turn, increases tracking capabilities compared to the use of general object tracking. Our approach reduces the error rate by 95% on average compared to YOLO-based tracking methods as a baseline.
- Abstract(参考訳): 近年、職場や教育機関は仮想会議プラットフォームを広く採用している。
これにより、これらのミーティングから洞察を分析し、抽出することへの関心が高まり、独特な個人を効果的に検出および追跡する必要がある。
実際には、ビデオ会議のレイアウトを記録し、それらを異なるプラットフォームやサービス間でどのようにキャプチャするかを記録できる標準化は存在しない。
これにより、このデータストリームを取得して、均一な方法で分析するという課題が生まれる。
提案手法は,1つのビデオソースからの参加者のグリッド(\cref{fig:videomeeting})を参加者の位置情報にメタデータを持たず,かつデータの取得方法に関する最小限の制約と仮定を用いて,最も一般的なビデオ記録方式のソリューションを提供する。
従来のアプローチでは、トラッキングアルゴリズムと結合したYOLOモデルを使用しており、CCTVの映像と同じような線形運動軌道を仮定している。
しかし、このような仮定は仮想ミーティングでは不十分であり、参加者のビデオフィードウィンドウはグリッド全体の位置を突然変更することができる。
オーガニックなビデオミーティングでは、参加者が頻繁に参加して出発し、ビデオグリッド上で突然、非線形の動きが発生する。
これは、線形運動に依存する光フローベースの追跡手法を妨害する。
したがって、標準のオブジェクト検出と追跡方法は、誤って複数の参加者を同じトラッカーに割り当てる可能性がある。
本稿では,遠隔ビデオ会議の参加者を追跡・再同定するための新しい手法を提案する。
これにより、一般的なオブジェクト追跡に比べてトラッキング能力が向上する。
本手法は, YOLOをベースラインとしたトラッキング手法と比較して, 誤差率を平均95%削減する。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Unleashing the Potential of Tracklets for Unsupervised Video Person Re-Identification [40.83058938096914]
本稿では、教師なしの映像人物の再識別を促進するためのSSR-C(Self-Supervised Refined Clustering)フレームワークを提案する。
教師なしビデオ人物再同定のためのSSR-Cは最先端の教師付き手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2024-06-20T12:30:12Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Multi-view Tracking Using Weakly Supervised Human Motion Prediction [60.972708589814125]
さらに効果的なアプローチは、時間とともに人々の動きを予測し、それらから個々のフレームにおける人々の存在を推定することである、と我々は主張する。
これにより、時間とともに、また1つの時間フレームのビューにわたって一貫性を強制できる。
PETS2009およびWILDTRACKデータセットに対する我々のアプローチを検証するとともに、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T17:58:23Z) - QDTrack: Quasi-Dense Similarity Learning for Appearance-Only Multiple
Object Tracking [73.52284039530261]
本稿では,コントラスト学習のために,画像上に数百のオブジェクト領域を密集した擬似Dense類似性学習を提案する。
得られた特徴空間は、オブジェクトアソシエーションの推論時間において、単純な近接探索を許容する。
我々の類似性学習方式は,ビデオデータに限らず,静的入力でも有効なインスタンス類似性を学ぶことができることを示す。
論文 参考訳(メタデータ) (2022-10-12T15:47:36Z) - Online Deep Clustering with Video Track Consistency [85.8868194550978]
ビデオオブジェクトトラックから視覚的特徴を学習するための教師なしクラスタリングに基づく手法を提案する。
教師なしのクラス非依存でノイズの多いトラックジェネレータを利用すれば、コストと正確なトラックアノテーションに依存するよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-06-07T08:11:00Z) - Discriminative Appearance Modeling with Multi-track Pooling for
Real-time Multi-object Tracking [20.66906781151]
マルチオブジェクトトラッキングでは、トラッカーはそのメモリ内にシーンの各オブジェクトの外観と動き情報を保持する。
多くのアプローチは、それぞれのターゲットを分離してモデル化し、シーン内のすべてのターゲットを使用してメモリを共同で更新する能力がない。
オンライン上でハードトラッキングのエピソードを生成するマルチトラックプーリングに適応したトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-01-28T18:12:39Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - RetinaTrack: Online Single Stage Joint Detection and Tracking [22.351109024452462]
両タスクがミッションクリティカルな自律運転におけるトラッキング・バイ・検出パラダイムに注目した。
本稿では、一般的な単一ステージのRetinaNetアプローチを改良したRetinaTrackと呼ばれる、概念的にシンプルで効率的な検出と追跡のジョイントモデルを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。