論文の概要: Conversation Group Detection With Spatio-Temporal Context
- arxiv url: http://arxiv.org/abs/2206.02559v1
- Date: Thu, 2 Jun 2022 08:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 21:08:37.822211
- Title: Conversation Group Detection With Spatio-Temporal Context
- Title(参考訳): 時空間文脈を用いた会話グループ検出
- Authors: Stephanie Tan, David M.J. Tax, Hayley Hung
- Abstract要約: 本稿では,カクテルパーティーやネットワークイベントなどの社会的シナリオにおける会話グループ検出手法を提案する。
環境の空間的文脈を活用することの恩恵を受けることができる学習問題として,会話グループの検出を仮定する。
これはLSTMに基づく動的深層学習モデルから成り、連続的なペアワイド親和性値を予測するアプローチである。
- 参考スコア(独自算出の注目度): 11.288403109735544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose an approach for detecting conversation groups in
social scenarios like cocktail parties and networking events, from overhead
camera recordings. We posit the detection of conversation groups as a learning
problem that could benefit from leveraging the spatial context of the
surroundings, and the inherent temporal context in interpersonal dynamics which
is reflected in the temporal dynamics in human behavior signals, an aspect that
has not been addressed in recent prior works. This motivates our approach which
consists of a dynamic LSTM-based deep learning model that predicts continuous
pairwise affinity values indicating how likely two people are in the same
conversation group. These affinity values are also continuous in time, since
relationships and group membership do not occur instantaneously, even though
the ground truths of group membership are binary. Using the predicted affinity
values, we apply a graph clustering method based on Dominant Set extraction to
identify the conversation groups. We benchmark the proposed method against
established methods on multiple social interaction datasets. Our results showed
that the proposed method improves group detection performance in data that has
more temporal granularity in conversation group labels. Additionally, we
provide an analysis in the predicted affinity values in relation to the
conversation group detection. Finally, we demonstrate the usability of the
predicted affinity values in a forecasting framework to predict group
membership for a given forecast horizon.
- Abstract(参考訳): 本研究では,カクテルパーティーやネットワークイベントなどの社会的シナリオにおける会話グループを,オーバーヘッドカメラ記録から検出するためのアプローチを提案する。
本研究では,人間の行動信号の時間的ダイナミクスに反映される対人動態において,周囲の空間的文脈を活用できるような学習課題として,会話グループの検出と,その内在する時間的文脈を仮定する。
これはLSTMに基づく動的深層学習モデルから成り、同じ会話グループに2人がどれだけの確率でいるかを示す連続的なペアワイズ親和性値を予測するアプローチである。
関係性やグループメンバーシップは、グループメンバーシップの根拠の真理が二元であるにもかかわらず、瞬時に発生しないため、これらの親和性は時間的にも連続する。
予測親和性値を用いて、支配的集合抽出に基づくグラフクラスタリング手法を適用し、会話グループを特定する。
提案手法を,複数のソーシャルインタラクションデータセット上で確立された手法に対してベンチマークする。
提案手法により,会話グループラベルの時間的粒度が高いデータにおけるグループ検出性能が向上することを示した。
さらに,対話グループの検出に関して,予測された親和性値の分析を行う。
最後に,特定の予測地平線に対するグループメンバシップ予測のための予測フレームワークにおいて,予測親和性値の有用性を示す。
関連論文リスト
- Exploiting temporal information to detect conversational groups in videos and predict the next speaker [2.7981106665946944]
本稿では,ビデオシーケンス中のF生成を検出し,グループ会話における次の話者を予測することを目的とする。
私たちは、グループに属する人のエンゲージメントレベルを測定することに依存しています。
MatchNMingleデータセットの実験では、グループ検出では85%正の正が、次の話者の予測では98%の精度が得られた。
論文 参考訳(メタデータ) (2024-08-29T09:41:36Z) - Redefining Event Types and Group Evolution in Temporal Data [0.16385815610837165]
時間的データにおいて、集団進化を特徴づける主要なアプローチは、出来事の特定を通じてである」。
我々は事象をアーチェタイプとして考える」とは、我々がファセット・エクセレミティ(facet extremities)と呼ぶ定量的次元のユニークな組み合わせによって特徴づけられる。
本フレームワークは,複数の対面インタラクションデータセットからグループを進化させ,よりリッチで信頼性の高いグループダイナミクスのキャラクタリゼーションを可能にする。
論文 参考訳(メタデータ) (2024-03-11T14:39:24Z) - Towards Efficient and Effective Deep Clustering with Dynamic Grouping
and Prototype Aggregation [4.550555443103878]
本稿ではDigProと呼ばれる動的グループ化とプロトタイプアグリゲーションを備えた新しいエンドツーエンドのディープクラスタリングフレームワークを提案する。
具体的には、動的グルーピングがインスタンスレベルからグループレベルへのコントラスト学習を拡張し、グループをタイムリーに更新するのに効率的かつ効率的である。
期待最大化フレームワークにより、DigProはクラスタ内接続のコンパクトな接続、よく分離されたクラスタ、そしてセルフ教師付きトレーニング中の効率的なグループ更新を同時に活用する。
論文 参考訳(メタデータ) (2024-01-24T16:45:42Z) - Parallel Reasoning Network for Human-Object Interaction Detection [53.422076419484945]
並列推論ネットワーク(PR-Net)というトランスフォーマーに基づく新しい手法を提案する。
PR-Netは、インスタンスレベルのローカライゼーションと関係レベルの理解のための2つの独立した予測器を構築する。
我々のPR-NetはHICO-DETとV-COCOベンチマークで競合する結果を得た。
論文 参考訳(メタデータ) (2023-01-09T17:00:34Z) - Rethinking Trajectory Prediction via "Team Game" [118.59480535826094]
本稿では,対話型グループコンセンサスの概念を明示的に導入した,マルチエージェント軌道予測の新しい定式化について述べる。
チームスポーツと歩行者の2つのマルチエージェント設定において,提案手法は既存手法と比較して常に優れた性能を達成している。
論文 参考訳(メタデータ) (2022-10-17T07:16:44Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Grouptron: Dynamic Multi-Scale Graph Convolutional Networks for
Group-Aware Dense Crowd Trajectory Forecasting [30.885838880247263]
Grouptronは、歩行者グループの検出と表現を活用するマルチスケールの動的予測フレームワークである。
ETH/UCYベンチマークデータセットの最先端手法と比較して、最終変位誤差(FDE)は9.3%減少する。
論文 参考訳(メタデータ) (2021-09-29T01:22:25Z) - Modelling Neighbor Relation in Joint Space-Time Graph for Video
Correspondence Learning [53.74240452117145]
本稿では、ラベルなしビデオから信頼できる視覚対応を学習するための自己教師付き手法を提案する。
接続時空間グラフでは,ノードがフレームからサンプリングされたグリッドパッチであり,2種類のエッジによってリンクされる。
学習した表現は、様々な視覚的タスクにおいて最先端の自己監督手法よりも優れています。
論文 参考訳(メタデータ) (2021-09-28T05:40:01Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Group Activity Prediction with Sequential Relational Anticipation Model [28.225918711577314]
不完全な活動実行を伴う初期フレームからグループアクティビティを予測する新しい手法を提案する。
グループ活動予測では,人々の活動と時間的位置との関係は,グループ活動を予測する上で重要な手がかりとなる。
本モデルは,グループ活動予測のための識別的グループ表現を学習することを目的として,2つのグラフオートエンコーダによる活動特徴と位置の両方を明示的に予測する。
論文 参考訳(メタデータ) (2020-08-06T03:17:14Z) - Predicting Temporal Sets with Deep Neural Networks [50.53727580527024]
本稿では,時間集合予測のためのディープニューラルネットワークに基づく統合解を提案する。
ユニークな視点は、セットレベルの共起グラフを構築することで要素関係を学ぶことである。
我々は,要素や集合の時間依存性を適応的に学習するアテンションベースのモジュールを設計する。
論文 参考訳(メタデータ) (2020-06-20T03:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。