論文の概要: Combining Automatic Coding and Instructor Input to Generate ENA
Visualizations for Asynchronous Online Discussion
- arxiv url: http://arxiv.org/abs/2308.13549v1
- Date: Tue, 22 Aug 2023 20:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-03 21:31:59.761698
- Title: Combining Automatic Coding and Instructor Input to Generate ENA
Visualizations for Asynchronous Online Discussion
- Title(参考訳): 自動符号化とインストラクタ入力を組み合わせた非同期オンラインディスカッションのためのENA可視化生成
- Authors: Marcia Moraes, Sadaf Ghaffari, Yanye Luther, and James Folkestad
- Abstract要約: 本稿では,LDA(Latent Dirichlet Analysis)とインストラクターのキーワードを用いて,比較的小さなデータセットからコードを自動的に抽出する手法を提案する。
生成されたコードを用いて、疫学ネットワーク分析(ENA)モデルを構築し、このモデルを、人間のコーダによって構築された以前のENAモデルと比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Asynchronous online discussions are a common fundamental tool to facilitate
social interaction in hybrid and online courses. However, instructors lack the
tools to accomplish the overwhelming task of evaluating asynchronous online
discussion activities. In this paper we present an approach that uses Latent
Dirichlet Analysis (LDA) and the instructor's keywords to automatically extract
codes from a relatively small dataset. We use the generated codes to build an
Epistemic Network Analysis (ENA) model and compare this model with a previous
ENA model built by human coders. The results show that there is no statistical
difference between the two models. We present an analysis of these models and
discuss the potential use of ENA as a visualization to help instructors
evaluating asynchronous online discussions.
- Abstract(参考訳): 非同期オンラインディスカッションは、ハイブリッドおよびオンラインコースにおけるソーシャルインタラクションを促進するための共通の基本ツールである。
しかし、教師は非同期オンラインディスカッション活動を評価するという圧倒的な課題を達成するためのツールが欠けている。
本稿では,LDA(Latent Dirichlet Analysis)とインストラクターのキーワードを用いて,比較的小さなデータセットからコードを自動的に抽出する手法を提案する。
生成されたコードを用いて、疫学ネットワーク分析(ENA)モデルを構築し、このモデルを、人間のコーダによって構築された以前のENAモデルと比較する。
その結果,両モデル間に統計的差異は認められなかった。
本稿では,これらのモデルを解析し,教師が非同期オンラインディスカッションを評価するのに役立つ可視化として,ENAの利用の可能性について論じる。
関連論文リスト
- Testing Human-Hand Segmentation on In-Distribution and Out-of-Distribution Data in Human-Robot Interactions Using a Deep Ensemble Model [40.815678328617686]
我々は、IDデータとより挑戦的なOODシナリオの両方の下で、事前学習されたディープラーニングモデルの性能を評価することによって、新しいアプローチを提案する。
動作の速い手から指を横切る動作や動きのぼやけなど,特異かつ稀な条件を取り入れた。
その結果、産業用データセットでトレーニングされたモデルは、非工業用データセットでトレーニングされたモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-13T21:52:46Z) - OnDiscuss: An Epistemic Network Analysis Learning Analytics Visualization Tool for Evaluating Asynchronous Online Discussions [0.49998148477760973]
OnDiscussはテキストマイニングアルゴリズムと疫学ネットワーク分析(ENA)を利用するインストラクターのための学習分析可視化ツール
テキストマイニングはインストラクターのための最初のコードブックを生成するために使用され、データを自動的にコードする。
このツールは、インストラクターが自分のコードブックを編集し、クラス全体と個々の学生のENAネットワークを動的に閲覧することを可能にする。
論文 参考訳(メタデータ) (2024-08-19T21:23:11Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - RAVEN: In-Context Learning with Retrieval-Augmented Encoder-Decoder Language Models [57.12888828853409]
RAVENは検索強化されたマスク付き言語モデリングとプレフィックス言語モデリングを組み合わせたモデルである。
フュージョン・イン・コンテキスト・ラーニング(Fusion-in-Context Learning)により、追加のトレーニングを必要とせずに、より多くのコンテキスト内サンプルを利用できる。
本研究は,テキスト内学習のためのエンコーダ・デコーダ言語モデルの構築の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-08-15T17:59:18Z) - DinoSR: Self-Distillation and Online Clustering for Self-supervised
Speech Representation Learning [140.96990096377127]
自己教師型音声表現学習(DinoSR)のための自己蒸留とオンラインクラスタリングを導入する。
DinoSRはまず、入力されたオーディオから教師ネットワークにコンテキスト化された埋め込みを抽出し、埋め込み上にオンラインクラスタリングシステムを実行して、マシンが発見した携帯電話の在庫を出力し、最後に、識別トークンを使用して学生ネットワークを誘導する。
本稿では,DinoSRが複数の下流タスクにおいて過去の最先端性能を上回ることを示し,モデルと学習した離散単位の詳細な解析を行う。
論文 参考訳(メタデータ) (2023-05-17T07:23:46Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Leveraging Pre-Trained Language Models to Streamline Natural Language
Interaction for Self-Tracking [25.28975864365579]
本研究では,自己追跡のための新たなNLPタスクを提案する。
このフレームワークは、合成サンプルを使用してタスクを10ショットの学習に変換するプロンプトを強化し、新しいトラッキングトピックをブートストラップする際のコールドスタート問題に対処する。
論文 参考訳(メタデータ) (2022-05-31T01:58:04Z) - Bootstrapping Relation Extractors using Syntactic Search by Examples [47.11932446745022]
非NLP専門家によって迅速に実行できるトレーニングデータセットのブートストラッププロセスを提案する。
フレンドリーなバイサンプル構文を公開する構文グラフよりも検索エンジンを利用する。
得られたモデルは,手作業による注釈付きデータや遠隔監視から得られたデータに基づいて訓練されたモデルと競合することを示す。
論文 参考訳(メタデータ) (2021-02-09T18:17:59Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Forecasting Sequential Data using Consistent Koopman Autoencoders [52.209416711500005]
クープマン理論に関連する新しい物理学に基づく手法が導入された。
本稿では,既存の作業の多くと異なり,前方・後方のダイナミクスを生かした新しいコンシスタント・クープマン・オートエンコーダモデルを提案する。
このアプローチの鍵となるのは、一貫性のある力学と関連するクープマン作用素との相互作用を探索する新しい解析である。
論文 参考訳(メタデータ) (2020-03-04T18:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。