論文の概要: Unsupervised Representations Predict Popularity of Peer-Shared Artifacts
in an Online Learning Environment
- arxiv url: http://arxiv.org/abs/2103.00163v1
- Date: Sat, 27 Feb 2021 09:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-09 18:31:39.558700
- Title: Unsupervised Representations Predict Popularity of Peer-Shared Artifacts
in an Online Learning Environment
- Title(参考訳): オンライン学習環境におけるピアシェアアーティファクトの一般性を予測する教師なし表現
- Authors: Renzhe Yu, John Scott, Zachary A. Pardos
- Abstract要約: 我々は, (a) 文脈行動ログ (b) テキストの内容, (c) インストラクターが特定した特徴の集合によって, 学生の成果物を表現している。
文脈的行動ログから学習したニューラルネットワークの埋め込み表現が,人気を最も強く予測していることがわかった。
この表現は、人間のラベル付けの努力を伴わずに学習できるため、より包括的な学生の相互作用を形作る可能性が開ける。
- 参考スコア(独自算出の注目度): 4.438259529250529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In online collaborative learning environments, students create content and
construct their own knowledge through complex interactions over time. To
facilitate effective social learning and inclusive participation in this
context, insights are needed into the correspondence between
student-contributed artifacts and their subsequent popularity among peers. In
this study, we represent student artifacts by their (a) contextual action logs
(b) textual content, and (c) set of instructor-specified features, and use
these representations to predict artifact popularity measures. Through a
mixture of predictive analysis and visual exploration, we find that the neural
embedding representation, learned from contextual action logs, has the
strongest predictions of popularity, ahead of instructor's knowledge, which
includes academic value and creativity ratings. Because this representation can
be learnt without extensive human labeling effort, it opens up possibilities
for shaping more inclusive student interactions on the fly in collaboration
with instructors and students alike.
- Abstract(参考訳): オンライン共同学習環境では、学生はコンテンツを作成し、時間とともに複雑な相互作用を通じて独自の知識を構築する。
この文脈において、効果的な社会学習と包括的参加を促進するためには、学生が共有するアーティファクトと、それに続く仲間間の人気との対応に関する洞察が必要である。
本研究では 学生の成果物について
(a)コンテキストアクションログ
(b)テキストの内容、及び
(c)インストラクタ特定特徴のセット、及びこれらの表現を用いて、人工的人気指標を予測する。
予測分析と視覚的な探索の混合を通して、文脈的行動ログから学習した神経組込み表現は、学術的価値と創造性評価を含むインストラクターの知識に先立って、最も人気の高い予測を持つことがわかった。
この表現は、人間のラベル付けの努力を伴わずに学習できるため、インストラクターや学生とのコラボレーションによって、より包括的な学生の相互作用をその場で形成する可能性が開ける。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Knowledge acquisition for dialogue agents using reinforcement learning on graph representations [2.3851115175441193]
本研究は,初等訓練以上の知識基盤を増強するための人工エージェントを開発する。
エージェントは他のエージェントとの対話に積極的に参加し、戦略的に新しい情報を取得する。
インタラクション中に有効なグラフパターンを選択するために、強化学習を用いてポリシーを学習できることが示される。
論文 参考訳(メタデータ) (2024-06-27T19:28:42Z) - Representational Alignment Supports Effective Machine Teaching [81.19197059407121]
我々は,機械教育の知見と実践的なコミュニケーションを,表現的アライメントに関する文献と統合する。
教師の精度から表現的アライメントを遠ざける教師付き学習環境を設計する。
論文 参考訳(メタデータ) (2024-06-06T17:48:24Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Integrating Competency-Based Education in Interactive Learning Systems [1.0052074659955383]
本稿では,アルテミスを能力に基づく教育に活用する方法について述べる。
インストラクターが能力間の関係を定義して能力関係グラフを作成する方法を示す。
本稿では,新たに設計した能力視覚化のユーザビリティに関するユーザスタディの結果を紹介する。
論文 参考訳(メタデータ) (2023-08-25T15:11:53Z) - Compositional Learning in Transformer-Based Human-Object Interaction
Detection [6.630793383852106]
ラベル付きインスタンスの長期分布は、HOI検出の主要な課題である。
HOI三重奏の性質にインスパイアされた既存のアプローチでは、作曲学習という概念が採用されている。
我々は,構成HoI学習のためのトランスフォーマーベースのフレームワークを創造的に提案する。
論文 参考訳(メタデータ) (2023-08-11T06:41:20Z) - Metaversal Learning Environments: Measuring, predicting and improving
interpersonal effectiveness [2.6424064030995957]
人工知能と仮想現実を組み合わせた新しいアーキテクチャを導入し,アバターを用いた没入型学習体験を実現する。
このフレームワークは、アバターと相互作用する個人の対人効果を測定することができる。
その結果, 対人効果に欠ける個人は, アバターとの相互作用が複数あった後, パフォーマンスが著しく向上したことが明らかとなった。
論文 参考訳(メタデータ) (2022-05-05T18:22:27Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - Enhancing Social Relation Inference with Concise Interaction Graph and
Discriminative Scene Representation [56.25878966006678]
我々はtextbfSocial rtextbfElation (PRISE) における textbfPractical textbfInference のアプローチを提案する。
人の対話的特徴と全体主義的な場面の識別的特徴を簡潔に学習する。
PRISEはPIPAデータセットにおけるドメイン分類の改善を6.8$%で達成している。
論文 参考訳(メタデータ) (2021-07-30T04:20:13Z) - Graph-based Exercise- and Knowledge-Aware Learning Network for Student
Performance Prediction [8.21303828329009]
学生のスコアを正確に予測するためのグラフベースのエクササイズ・アンド・ナレッジ・アウェアラーニングネットワークを提案する。
我々は,エクササイズとナレッジ概念の熟達度を学習し,エクササイズとナレッジ概念の2倍の効果をモデル化する。
論文 参考訳(メタデータ) (2021-06-01T06:53:17Z) - Exploring Visual Engagement Signals for Representation Learning [56.962033268934015]
VisEは、クラスタ化されたエンゲージメント信号から派生した擬似ラベルにソーシャルイメージをマップする弱い教師付き学習アプローチである。
この方法でトレーニングされたモデルが、感情認識や政治的バイアス検出といった主観的なコンピュータビジョンタスクにどのように役立つかを研究する。
論文 参考訳(メタデータ) (2021-04-15T20:50:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。