論文の概要: DIPSER: A Dataset for In-Person Student Engagement Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2502.20209v2
- Date: Sun, 02 Mar 2025 13:36:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 13:05:25.612588
- Title: DIPSER: A Dataset for In-Person Student Engagement Recognition in the Wild
- Title(参考訳): DIPSER:野生における個人学生のエンゲージメント認識のためのデータセット
- Authors: Luis Marquez-Carpintero, Sergio Suescun-Ferrandiz, Carolina Lorenzo Álvarez, Jorge Fernandez-Herrero, Diego Viejo, Rosabel Roig-Vila, Miguel Cazorla,
- Abstract要約: 本稿では,教室内環境における学生の注意度を評価するための新しいデータセットを提案する。
このデータセットはRGBカメラのデータを含み、学生1人当たりの姿勢と表情をキャプチャする複数のカメラを備えている。
学生毎の注意・感情ラベルの包括的スイートが提供され、自己報告と4つの異なる専門家による評価によって生成される。
当社のデータセットは、顔と環境カメラのデータ、スマートウォッチのメトリクスを独自に組み合わせ、同じデータセットに表現されていない民族が含まれています。
- 参考スコア(独自算出の注目度): 1.766742562532995
- License:
- Abstract: In this paper, a novel dataset is introduced, designed to assess student attention within in-person classroom settings. This dataset encompasses RGB camera data, featuring multiple cameras per student to capture both posture and facial expressions, in addition to smartwatch sensor data for each individual. This dataset allows machine learning algorithms to be trained to predict attention and correlate it with emotion. A comprehensive suite of attention and emotion labels for each student is provided, generated through self-reporting as well as evaluations by four different experts. Our dataset uniquely combines facial and environmental camera data, smartwatch metrics, and includes underrepresented ethnicities in similar datasets, all within in-the-wild, in-person settings, making it the most comprehensive dataset of its kind currently available. The dataset presented offers an extensive and diverse collection of data pertaining to student interactions across different educational contexts, augmented with additional metadata from other tools. This initiative addresses existing deficiencies by offering a valuable resource for the analysis of student attention and emotion in face-to-face lessons.
- Abstract(参考訳): 本稿では,教室内環境における学生の注意度を評価するための新しいデータセットを提案する。
このデータセットはRGBカメラのデータを含み、学生1人当たりの複数のカメラで姿勢と表情を捉え、個々のスマートウォッチセンサーのデータも含む。
このデータセットは、機械学習アルゴリズムをトレーニングして、注意を予測し、感情と相関させることができる。
学生毎の注意・感情ラベルの包括的スイートが提供され、自己報告と4つの異なる専門家による評価によって生成される。
当社のデータセットは、顔と環境のカメラデータ、スマートウォッチのメトリクスを独自に組み合わせ、同様のデータセットに表現されていない民族が含まれています。
提示されたデータセットは、さまざまな教育コンテキストにわたる学生のインタラクションに関連する、広範囲で多様なデータのコレクションを提供し、他のツールからのメタデータを追加します。
このイニシアチブは、対面授業における学生の注意と感情の分析のための貴重なリソースを提供することによって、既存の欠陥に対処する。
関連論文リスト
- EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - Towards Student Actions in Classroom Scenes: New Dataset and Baseline [43.268586725768465]
複雑な教室シーンを対象とした,SAV(Multi-label student action video)データセットを提案する。
データセットは、758の教室から、4,324の慎重にトリミングされたビデオクリップで構成され、それぞれに15の教室で生徒が表示するアクションがラベル付けされている。
論文 参考訳(メタデータ) (2024-09-02T03:44:24Z) - Diffusion Models as Data Mining Tools [87.77999285241219]
本稿では、画像合成のために訓練された生成モデルを視覚データマイニングのツールとして利用する方法について述べる。
特定のデータセットから画像を合成するために条件拡散モデルを微調整した後、これらのモデルを用いて典型性尺度を定義することができることを示す。
この尺度は、地理的位置、タイムスタンプ、セマンティックラベル、さらには病気の存在など、異なるデータラベルに対する典型的な視覚的要素がどのように存在するかを評価する。
論文 参考訳(メタデータ) (2024-07-20T17:14:31Z) - Rethinking Pre-Training in Tabular Data: A Neighborhood Embedding Perspective [71.45945607871715]
メタ表現(TabPTM)を用いたタブラルデータ事前学習を提案する。
中心となる考え方は、データインスタンスを共有機能空間に埋め込むことで、各インスタンスは、近隣の固定数とそのラベルまでの距離で表現される。
101データセットの大規模な実験は、微調整の有無にかかわらず、分類タスクと回帰タスクの両方においてTabPTMの有効性を確認した。
論文 参考訳(メタデータ) (2023-10-31T18:03:54Z) - JEDI: Joint Expert Distillation in a Semi-Supervised Multi-Dataset
Student-Teacher Scenario for Video Action Recognition [29.67402932890899]
マルチデータセットに基づく半教師付き学習手法であるJEDIを提案する。
複数の専門家の知識を効率よく組み合わせ、異なるデータセットで学習し、個々のデータセット毎、学生モデルのパフォーマンスをトレーニングし改善する。
論文 参考訳(メタデータ) (2023-08-09T13:09:07Z) - Do I Have Your Attention: A Large Scale Engagement Prediction Dataset
and Baselines [9.896915478880635]
「機械と対話しながら個人によって表される集中、熱意、楽観、情熱の度合いをユーザエンゲージメントと呼ぶ。」
現実の環境で動作可能なエンゲージメント予測システムを構築するためには、リッチで多様なデータセットから学ぶことが不可欠である。
野生データセットEngageNetにおける大規模多面的エンゲージメントを提案する。
論文 参考訳(メタデータ) (2023-02-01T13:25:54Z) - iMiGUE: An Identity-free Video Dataset for Micro-Gesture Understanding
and Emotion Analysis [23.261770969903065]
iMiGUE(iMiGUE)は、マイクロジェスチャ理解・感情分析のためのアイデンティティフリービデオデータセットである。
iMiGUEは、内的感情によって引き起こされる意図しない行動(micro-gesture)に焦点を当てている。
論文 参考訳(メタデータ) (2021-07-01T08:15:14Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - The IKEA ASM Dataset: Understanding People Assembling Furniture through
Actions, Objects and Pose [108.21037046507483]
IKEA ASMは300万フレーム、マルチビュー、家具組み立てビデオデータセットで、深さ、原子活動、オブジェクトセグメンテーション、人間のポーズを含む。
我々は,この課題のあるデータセット上で,映像行動認識,オブジェクトセグメンテーション,人間のポーズ推定タスクの顕著な手法をベンチマークする。
このデータセットは、マルチモーダルデータとマルチビューデータを統合してこれらのタスクをよりよく実行する、全体論的手法の開発を可能にする。
論文 参考訳(メタデータ) (2020-07-01T11:34:46Z) - ROSbag-based Multimodal Affective Dataset for Emotional and Cognitive
States [0.9786690381850356]
本稿では,ロボット・オペレーティング・システム(ROS)を用いた感情・認知状態に対するROSbagベースのマルチモーダル感情データセットを提案する。
我々は、IAPS(International Affective Pictures System)とIADS(International Affective Digitized Sounds)のイメージと音を用いて、ターゲットの感情を刺激した。
生成された感情データセットは1,602のROSbagファイルで構成され、データセットのサイズは約787GBである。
論文 参考訳(メタデータ) (2020-06-09T08:09:42Z) - REVISE: A Tool for Measuring and Mitigating Bias in Visual Datasets [64.76453161039973]
REVISE(Revealing VIsual biaSEs)は、視覚的データセットの調査を支援するツールである。
1)オブジェクトベース,(2)個人ベース,(3)地理ベースという3つの次元に沿った潜在的なバイアスを呈示する。
論文 参考訳(メタデータ) (2020-04-16T23:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。