論文の概要: Exploring Interactions and Regulations in Collaborative Learning: An
Interdisciplinary Multimodal Dataset
- arxiv url: http://arxiv.org/abs/2210.05419v1
- Date: Tue, 11 Oct 2022 12:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 17:24:19.674005
- Title: Exploring Interactions and Regulations in Collaborative Learning: An
Interdisciplinary Multimodal Dataset
- Title(参考訳): 協調学習における相互作用と規則の探索--学際的マルチモーダルデータセット
- Authors: Yante Li, Yang Liu, Kh\'Anh Nguyen, Henglin Shi, Eija Vuorenmaa, Sanna
Jarvela, and Guoying Zhao
- Abstract要約: 本稿では,協調的プロセスにおいて,協調的プロセスにおける規制が相互作用にどのように影響するかを検討するために,認知的および感情的トリガーを備えた新しいマルチモーダルデータセットを提案する。
意図的な介入を伴う学習課題を15歳以上の高校生に設計・割り当てする。
注記された感情、身体のジェスチャー、およびそれらの相互作用の分析は、デザインされた治療を伴うデータセットが、協調学習における規制の瞬間を効果的に調査できることを示唆している。
- 参考スコア(独自算出の注目度): 40.193998859310156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Collaborative learning is an educational approach that enhances learning
through shared goals and working together. Interaction and regulation are two
essential factors related to the success of collaborative learning. Since the
information from various modalities can reflect the quality of collaboration, a
new multimodal dataset with cognitive and emotional triggers is introduced in
this paper to explore how regulations affect interactions during the
collaborative process. Specifically, a learning task with intentional
interventions is designed and assigned to high school students aged 15 years
old (N=81) in average. Multimodal signals, including video, Kinect, audio, and
physiological data, are collected and exploited to study regulations in
collaborative learning in terms of individual-participant-single-modality,
individual-participant-multiple-modality, and
multiple-participant-multiple-modality. Analysis of annotated emotions, body
gestures, and their interactions indicates that our multimodal dataset with
designed treatments could effectively examine moments of regulation in
collaborative learning. In addition, preliminary experiments based on baseline
models suggest that the dataset provides a challenging in-the-wild scenario,
which could further contribute to the fields of education and affective
computing.
- Abstract(参考訳): 協調学習(Collaborative learning)は、共通の目標を通じて学び、共同作業を促進する教育手法である。
相互作用と制御は協調学習の成功に不可欠な2つの要素である。
様々なモダリティからの情報は協調の質を反映できるため,協調プロセス中の相互作用にどのように影響するかを検討するために,認知的・感情的なトリガーを伴う新しいマルチモーダルデータセットが導入された。
具体的には,15歳(N=81)の高校生を対象に,意図的な介入を伴う学習課題を設計・割り当てする。
ビデオ,Kinect,オーディオ,生理的データなどのマルチモーダル信号を収集し,個別参加者・単一モダリティ,個別参加者・複数モダリティ,複数参加者・複数モダリティの観点から協調学習の規則を学習するために利用する。
注釈付き感情、身体のジェスチャー、およびそれらの相互作用の分析は、デザインされた治療を含むマルチモーダルデータセットが協調学習における規制モーメントを効果的に検証できることを示している。
さらに、ベースラインモデルに基づく予備実験では、データセットは、教育や情緒的コンピューティングの分野にさらに貢献する、挑戦的なインザワイルドシナリオを提供することを示唆している。
関連論文リスト
- From Complexity to Parsimony: Integrating Latent Class Analysis to Uncover Multimodal Learning Patterns in Collaborative Learning [0.0]
本研究では,Multimodal Learning Analytics(MMLA)に潜在クラス分析(LCA)を統合する新しい手法を提案する。
LCAは、協調コミュニケーション(Collaborative Communication)、身体的コラボレーション(Embodied Collaboration)、遠隔インタラクション(Distant Interaction)、孤独エンゲージメント(Solitary Engagement)の4つの異なるクラスを特定した。
疫学ネットワーク分析は、これらのマルチモーダル指標を元のモノモーダル指標と比較し、マルチモーダルアプローチがより相似であることを発見した。
論文 参考訳(メタデータ) (2024-11-23T15:36:35Z) - On the Comparison between Multi-modal and Single-modal Contrastive Learning [50.74988548106031]
マルチモーダルとシングルモーダルのコントラスト学習の違いを理解するための理論的基盤を導入する。
マルチモーダル・シングルモーダル・コントラッシブ・ラーニングの下流タスクにおける一般化に影響を及ぼす臨界因子,すなわち信号対雑音比(SNR)を同定する。
我々の分析は、単一モードと多モードのコントラスト学習の最適化と一般化を特徴付ける統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-05T06:21:17Z) - Multi-agent cooperation through learning-aware policy gradients [53.63948041506278]
利己的な個人はしばしば協力に失敗し、マルチエージェント学習の根本的な課題を提起する。
本稿では,学習型強化学習のための,偏見のない高導出性ポリシー勾配アルゴリズムを提案する。
我々は, 受刑者のジレンマから, 自己関心のある学習エージェントの間でどのように, いつ, 協力関係が生じるかの新たな説明を得た。
論文 参考訳(メタデータ) (2024-10-24T10:48:42Z) - What to align in multimodal contrastive learning? [7.7439394183358745]
単一マルチモーダル空間におけるモダリティ間の通信を可能にするコントラスト型マルチモーダル学習戦略を導入する。
この定式化から,情報共有,相乗的,一意的な用語が自然に出現し,冗長性を超えたマルチモーダル相互作用を推定できることを示す。
後者では、CoMMは複雑なマルチモーダル相互作用を学び、6つのマルチモーダルベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2024-09-11T16:42:22Z) - Distributed Continual Learning [12.18012293738896]
本稿では,分散連続学習の本質的側面を捉える数学的枠組みを提案する。
データインスタンス、完全なモデルパラメータ、モジュール化された(部分的な)モデルパラメータです。
タスクが複雑になるにつれて、データを共有するよりも、パラメータを共有する方が効率的です。
論文 参考訳(メタデータ) (2024-05-23T21:24:26Z) - Beyond Unimodal Learning: The Importance of Integrating Multiple Modalities for Lifelong Learning [23.035725779568587]
ディープニューラルネットワーク(DNN)におけるマルチモーダル性の役割と相互作用について検討する。
以上の結果から,複数のビューと相補的な情報を複数のモーダルから活用することで,より正確かつ堅牢な表現を学習できることが示唆された。
本稿では,各モーダルにおけるデータ点間の関係構造的類似性を利用して,異なるモーダルからの情報の統合と整合化を行う手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T22:02:58Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Multimodal Learning Without Labeled Multimodal Data: Guarantees and Applications [90.6849884683226]
ラベル付き単調データのみを用いた半教師付き環境における相互作用定量化の課題について検討する。
相互作用の正確な情報理論的定義を用いて、我々の重要な貢献は下界と上界の導出である。
本稿では、これらの理論結果を用いてマルチモーダルモデルの性能を推定し、データ収集をガイドし、様々なタスクに対して適切なマルチモーダルモデルを選択する方法について述べる。
論文 参考訳(メタデータ) (2023-06-07T15:44:53Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。