論文の概要: Let me join you! Real-time F-formation recognition by a socially aware
robot
- arxiv url: http://arxiv.org/abs/2008.10078v1
- Date: Sun, 23 Aug 2020 17:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 02:44:56.989989
- Title: Let me join you! Real-time F-formation recognition by a socially aware
robot
- Title(参考訳): 参加させてください!
社会認識ロボットによるリアルタイムF画像認識
- Authors: Hrishav Bakul Barua, Pradip Pramanick, Chayan Sarkar, Theint Haythi Mg
- Abstract要約: 本稿では,エゴビジョンカメラの連続画像ストリームからリアルタイムに社会集団を検出する新しいアーキテクチャを提案する。
会合や討論などの社会集会におけるF-formationを検出し,社会集団への参加を望む場合,ロボットのアプローチ角を予測する。
また,グループの一員ではない人など,アウトリーチも検知する。
- 参考スコア(独自算出の注目度): 2.8101673772585745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel architecture to detect social groups in real-time
from a continuous image stream of an ego-vision camera. F-formation defines
social orientations in space where two or more person tends to communicate in a
social place. Thus, essentially, we detect F-formations in social gatherings
such as meetings, discussions, etc. and predict the robot's approach angle if
it wants to join the social group. Additionally, we also detect outliers, i.e.,
the persons who are not part of the group under consideration. Our proposed
pipeline consists of -- a) a skeletal key points estimator (a total of 17) for
the detected human in the scene, b) a learning model (using a feature vector
based on the skeletal points) using CRF to detect groups of people and outlier
person in a scene, and c) a separate learning model using a multi-class Support
Vector Machine (SVM) to predict the exact F-formation of the group of people in
the current scene and the angle of approach for the viewing robot. The system
is evaluated using two data-sets. The results show that the group and outlier
detection in a scene using our method establishes an accuracy of 91%. We have
made rigorous comparisons of our systems with a state-of-the-art F-formation
detection system and found that it outperforms the state-of-the-art by 29% for
formation detection and 55% for combined detection of the formation and
approach angle.
- Abstract(参考訳): 本稿では,エゴビジョンカメラの連続画像ストリームからリアルタイムに社会集団を検出する新しいアーキテクチャを提案する。
f-formationは、2人以上の人が社会的な場所でコミュニケーションする傾向がある空間における社会的指向を定義する。
基本的に,会合や討論などの社会集会におけるF-formationを検出し,社会集団への参加を希望するロボットのアプローチ角を予測する。
さらに,対象グループに属さない異常者,すなわち,対象グループに属さない人物も検出する。
提案するパイプラインは --
a) 現場で検出された人間の骨格キーポイント推定器(合計17)
b)crfを用いた学習モデル(骨格点に基づく特徴ベクトルを用いて)を用いて,シーン内の人物群及び異常者群を検出すること。
c) 多クラスサポートベクターマシン(svm)を用いた個別学習モデルにより,現在の場面における人々のグループの正確なf形成と,視聴ロボットのアプローチ角度を予測する。
システムは2つのデータセットを用いて評価される。
以上の結果から,本手法を用いたシーンにおけるグループと外乱検出の精度は91%であった。
我々は,最先端のf-formation検出システムと厳密な比較を行い,造形検出では29%,造形角と接近角の同時検出では55%,最先端f-formation検出システムでは29%の精度を示した。
関連論文リスト
- Understanding Spatio-Temporal Relations in Human-Object Interaction using Pyramid Graph Convolutional Network [2.223052975765005]
本稿では,人間と物体の相互作用を自動的に認識する新しいピラミッドグラフ畳み込みネットワーク(PGCN)を提案する。
このシステムは、映像データをグラフとして検出した結果から、人間と物体の2次元または3次元空間関係を表す。
我々は,人間と物体の相互作用認識の分野で,2つの挑戦的データセット上でモデルを評価した。
論文 参考訳(メタデータ) (2024-10-10T13:39:17Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Real-time Trajectory-based Social Group Detection [22.86110112028644]
本稿では,ソーシャルグループ検出のためのシンプルで効率的なフレームワークを提案する。
本稿では,行動軌跡がソーシャルグルーピングに与える影響を考察し,新しい,信頼性の高い,高速なデータ駆動手法を用いる。
一般的なJRDBActデータセットに対する実験では,2%から11%の相対的な改善により,顕著な性能向上が見られた。
論文 参考訳(メタデータ) (2023-04-12T08:01:43Z) - Self-supervised Social Relation Representation for Human Group Detection [18.38523753680367]
人間のグループ検出のための新しい2段階のマルチヘッドフレームワークを提案する。
第1段階では,人間行動シミュレーター・ヘッドを提案し,ソーシャル・リレーション・フィーチャの埋め込みを学習する。
第2段階では,社会関係の埋め込みに基づいて,人間集団検出のための自己注意型ネットワークを開発する。
論文 参考訳(メタデータ) (2022-03-08T04:26:07Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z) - TraND: Transferable Neighborhood Discovery for Unsupervised Cross-domain
Gait Recognition [77.77786072373942]
本稿では、教師なしクロスドメイン歩行認識のための領域ギャップを橋渡しするTransferable Neighborhood Discovery (TraND) フレームワークを提案する。
我々は、潜在空間におけるラベルなしサンプルの自信ある近傍を自動的に発見するために、エンドツーエンドのトレーニング可能なアプローチを設計する。
提案手法は,CASIA-BとOU-LPの2つの公開データセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-02-09T03:07:07Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - REFORM: Recognizing F-formations for Social Robots [4.833815605196964]
本稿では,人やエージェントの位置や方向を検知するデータ駆動型手法であるREFORMを紹介する。
ReFORMは最先端のF-formation検出アルゴリズムよりも精度が向上した。
論文 参考訳(メタデータ) (2020-08-17T23:32:05Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。