論文の概要: Long-term Human Participation Assessment In Collaborative Learning Environments Using Dynamic Scene Analysis
- arxiv url: http://arxiv.org/abs/2405.02317v1
- Date: Sun, 14 Apr 2024 21:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 16:00:17.719758
- Title: Long-term Human Participation Assessment In Collaborative Learning Environments Using Dynamic Scene Analysis
- Title(参考訳): 動的シーン分析を用いた協調学習環境における長期人間参加評価
- Authors: Wenjing Shi, Phuong Tran, Sylvia Celedón-Pattichis, Marios S. Pattichis,
- Abstract要約: 本研究では,実生活における協調学習環境における学生の参加を評価するためのデータセットと手法を開発する。
本研究では,学生集団が他グループからの強い背景干渉を検知し,グループ内の動的参加者追跡を行うという2つのサブプロブレムに学生の参加を評価することの問題点を定式化する。
- 参考スコア(独自算出の注目度): 2.115993069505241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper develops datasets and methods to assess student participation in real-life collaborative learning environments. In collaborative learning environments, students are organized into small groups where they are free to interact within their group. Thus, students can move around freely causing issues with strong pose variation, move out and re-enter the camera scene, or face away from the camera. We formulate the problem of assessing student participation into two subproblems: (i) student group detection against strong background interference from other groups, and (ii) dynamic participant tracking within the group. A massive independent testing dataset of 12,518,250 student label instances, of total duration of 21 hours and 22 minutes of real-life videos, is used for evaluating the performance of our proposed method for student group detection. The proposed method of using multiple image representations is shown to perform equally or better than YOLO on all video instances. Over the entire dataset, the proposed method achieved an F1 score of 0.85 compared to 0.80 for YOLO. Following student group detection, the paper presents the development of a dynamic participant tracking system for assessing student group participation through long video sessions. The proposed dynamic participant tracking system is shown to perform exceptionally well, missing a student in just one out of 35 testing videos. In comparison, a state of the art method fails to track students in 14 out of the 35 testing videos. The proposed method achieves 82.3% accuracy on an independent set of long, real-life collaborative videos.
- Abstract(参考訳): 本研究では,実生活における協調学習環境における学生の参加を評価するためのデータセットと手法を開発した。
協調学習環境では、学生はグループ内で自由に交流できる小さなグループに組織される。
これにより、学生は、強いポーズのバリエーションで問題を起こして自由に動き回ったり、カメラシーンを移動したり、カメラから顔を離したりすることができる。
学生参加を2つのサブプロブレムに分類する問題を定式化する。
(i)他集団からの強い背景干渉に対する学生集団検出
(ii)グループ内の動的受動的追跡。
提案手法の有効性を評価するために,21時間22分間の実生活ビデオを含む,12,518,250人の学生ラベルの大規模独立試験データセットを用いた。
提案手法は,すべてのビデオインスタンスにおいて,YOLOと同等あるいは同等に動作することを示す。
提案手法はデータセット全体のF1スコアが0.85であり、YOLOは0.80であった。
学生グループ検出の後,学生グループ参加を長期ビデオセッションで評価する動的受講者追跡システムの開発について述べる。
提案した動的受講者追跡システムは、35の試験ビデオのうち1つに1人の学生を欠席させ、非常によく機能することが示されている。
対照的に、最先端の手法では、35の試験ビデオのうち14人の生徒を追跡できない。
提案手法は, 長時間のコラボレーションビデオの独立したセットに対して, 82.3%の精度を実現する。
関連論文リスト
- Vocal Sandbox: Continual Learning and Adaptation for Situated Human-Robot Collaboration [64.6107798750142]
Vocal Sandboxは、位置のある環境でシームレスな人間とロボットのコラボレーションを可能にするフレームワークである。
我々は,ロボットの能力に対する理解と協調をリアルタイムで構築できる軽量で解釈可能な学習アルゴリズムを設計する。
我々はVocal Sandboxを,コラボレーションギフトバッグアセンブリとLEGOストップモーションアニメーションの2つの設定で評価した。
論文 参考訳(メタデータ) (2024-11-04T20:44:40Z) - Towards Student Actions in Classroom Scenes: New Dataset and Baseline [43.268586725768465]
複雑な教室シーンを対象とした,SAV(Multi-label student action video)データセットを提案する。
データセットは、758の教室から、4,324の慎重にトリミングされたビデオクリップで構成され、それぞれに15の教室で生徒が表示するアクションがラベル付けされている。
論文 参考訳(メタデータ) (2024-09-02T03:44:24Z) - 3rd Place Solution for MOSE Track in CVPR 2024 PVUW workshop: Complex Video Object Segmentation [63.199793919573295]
ビデオオブジェクト(VOS)はコンピュータビジョンにおいて重要なタスクであり、ビデオフレーム間の背景から前景オブジェクトを区別することに焦点を当てている。
我々の研究はCutieモデルからインスピレーションを得ており、オブジェクトメモリ、メモリフレームの総数、および入力解像度がセグメンテーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-06-06T00:56:25Z) - Semi-supervised Video Semantic Segmentation Using Unreliable Pseudo Labels for PVUW2024 [12.274092278786966]
信頼できない擬似ラベルに基づく半教師付きビデオセマンティックセグメンテーション手法を採用する。
本手法では,mIoUが63.71%,67.83%,最終試験が67.83%であった。
CVPR 2024におけるワイルドチャレンジにおけるビデオ・シーン・パーシングの第1位を獲得した。
論文 参考訳(メタデータ) (2024-06-02T01:37:26Z) - Group Activity Recognition using Unreliable Tracked Pose [8.592249538742527]
ビデオにおけるグループ活動認識は、ビデオ内のすべての個人の行動を認識するモデルが必要であるため、複雑なタスクである。
我々は、Rendered Pose based Group Activity Recognition System (RePGARS)と呼ばれる革新的な深層学習に基づくグループアクティビティ認識手法を導入する。
論文 参考訳(メタデータ) (2024-01-06T17:36:13Z) - Measuring Student Behavioral Engagement using Histogram of Actions [0.0]
提案手法は学生の行動を認識し,学生の行動エンゲージメントレベルを予測する。
学生の行動認識には、人間の骨格を用いて、学生の姿勢と上半身の動きをモデル化する。
トレーニングされた3D-CNNモデルは、2分間のビデオセグメントごとにアクションを認識するために使用される。
論文 参考訳(メタデータ) (2023-07-18T16:37:37Z) - Mitigating Biases in Student Performance Prediction via Attention-Based
Personalized Federated Learning [7.040747348755578]
従来の学習に基づく学生モデリングのアプローチは、データの可用性のバイアスにより、表現不足の学生グループにあまり一般化しない。
本研究では,オンライン学習活動から学生のパフォーマンスを予測する手法を提案し,人種や性別などの異なる集団を対象とした推論精度を最適化する。
論文 参考訳(メタデータ) (2022-08-02T00:22:20Z) - Pseudo-label Guided Cross-video Pixel Contrast for Robotic Surgical
Scene Segmentation with Limited Annotations [72.15956198507281]
シーンセグメンテーションを促進するために,新しい擬似ラベル付きクロスビデオコントラスト学習法であるPGV-CLを提案する。
本研究では,ロボット外科手術データセットEndoVis18と白内障手術データセットCaDISについて検討した。
論文 参考訳(メタデータ) (2022-07-20T05:42:19Z) - ASCNet: Self-supervised Video Representation Learning with
Appearance-Speed Consistency [62.38914747727636]
本研究では,1)明示的な監督のためのラベルの欠如,2)構造化されていない,ノイズの多い視覚情報による自己指導型映像表現学習について検討する。
既存の方法は、主にビデオクリップをインスタンスとしてコントラスト損失を使用し、互いにインスタンスを識別することで視覚的表現を学ぶ。
本稿では,ロバストな映像表現を学ぶ上で,正のサンプル間の一貫性が鍵となることを観察する。
論文 参考訳(メタデータ) (2021-06-04T08:44:50Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。