論文の概要: Toward Automated Classroom Observation: Multimodal Machine Learning to
Estimate CLASS Positive Climate and Negative Climate
- arxiv url: http://arxiv.org/abs/2005.09525v3
- Date: Fri, 23 Jul 2021 15:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:48:20.614850
- Title: Toward Automated Classroom Observation: Multimodal Machine Learning to
Estimate CLASS Positive Climate and Negative Climate
- Title(参考訳): 自動教室観察に向けて:CLASS陽性気候と負気候を推定するマルチモーダル機械学習
- Authors: Anand Ramakrishnan and Brian Zylich and Erin Ottmar and Jennifer
LoCasale-Crouch and Jacob Whitehill
- Abstract要約: ACORNは畳み込みニューラルネットワークを使用して、スペクトルオーディオの特徴、教師や学生の顔、各画像フレームのピクセルを分析する。
本研究は,自動教室観察と,より一般的な映像活動認識・要約認識システムの設計について報告する。
- 参考スコア(独自算出の注目度): 15.11576571954928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we present a multi-modal machine learning-based system, which we
call ACORN, to analyze videos of school classrooms for the Positive Climate
(PC) and Negative Climate (NC) dimensions of the CLASS observation protocol
that is widely used in educational research. ACORN uses convolutional neural
networks to analyze spectral audio features, the faces of teachers and
students, and the pixels of each image frame, and then integrates this
information over time using Temporal Convolutional Networks. The audiovisual
ACORN's PC and NC predictions have Pearson correlations of $0.55$ and $0.63$
with ground-truth scores provided by expert CLASS coders on the UVA Toddler
dataset (cross-validation on $n=300$ 15-min video segments), and a purely
auditory ACORN predicts PC and NC with correlations of $0.36$ and $0.41$ on the
MET dataset (test set of $n=2000$ videos segments). These numbers are similar
to inter-coder reliability of human coders. Finally, using Graph Convolutional
Networks we make early strides (AUC=$0.70$) toward predicting the specific
moments (45-90sec clips) when the PC is particularly weak/strong. Our findings
inform the design of automatic classroom observation and also more general
video activity recognition and summary recognition systems.
- Abstract(参考訳): 本研究では,多変量機械学習システムacornを提案する。このシステムは,教育研究で広く利用されているクラス観測プロトコルの正の気候 (pc) と負の気候 (nc) のための学校教室のビデオを分析する。
ACORNは畳み込みニューラルネットワークを使用して、スペクトルオーディオの特徴、教師や学生の顔、各画像フレームのピクセルを分析し、時間とともに時間をかけてこの情報を統合します。
オーディオヴィジュアル ACORN の PC と NC の予測では Pearson の相関は0.55$ と 0.63$ であり、UVA の Toddler データセットの CLASS コーダーが提供し、純粋なオーディエンス ACORN は PC と NC の相関関係を MET データセットの 0.36$ と 0.41$ (テストセットは $n=2000$ ビデオセグメント) で予測する。
これらの数値は、人間のコーダのコーダ間信頼性に類似している。
最後に、グラフ畳み込みネットワークを用いて、PCが特に弱い/強いときの特定の瞬間(45-90秒のクリップ)を予測するために、早期の進歩(AUC=0.70$)を行う。
本研究は,自動教室観察と,より一般的な映像活動認識・要約認識システムの設計について報告する。
関連論文リスト
- Detecting 5G Narrowband Jammers with CNN, k-nearest Neighbors, and Support Vector Machines [4.678637187649889]
5Gセルネットワークは、無線信号の特定の制御サブチャネルを標的とする狭帯域ジャマに対して脆弱である。
1つの緩和アプローチは、機械学習に基づいて、オンライン観察システムでこのような妨害攻撃を検出することである。
本稿では,二項分類を行う機械学習モデルを用いて,物理層におけるジャミングを検出することを提案する。
論文 参考訳(メタデータ) (2024-05-07T13:54:12Z) - Spiking Two-Stream Methods with Unsupervised STDP-based Learning for
Action Recognition [1.9981375888949475]
ディープ畳み込みニューラルネットワーク(Deep Convolutional Neural Networks, CNN)は、現在、ビデオ分析のための最先端の手法である。
我々は、制御されていないスパイクタイミング依存塑性(STDP)ルールで訓練された畳み込みスパイキングニューラルネットワーク(CSNN)を用いて行動分類を行う。
本研究では,2ストリームCSNNが,限られたトレーニングデータを用いてもビデオから情報を抽出できることを示す。
論文 参考訳(メタデータ) (2023-06-23T20:54:44Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - Analytic Learning of Convolutional Neural Network For Pattern
Recognition [20.916630175697065]
バックプロパゲーション(BP)を用いた学習畳み込みニューラルネットワーク(CNN)は、時間とリソースを消費する。
解析的畳み込みニューラルネットワーク学習(ACnnL)を提案する。
ACnnLは、その類似した閉形式解を構築するが、正規化の制約が異なる。
論文 参考訳(メタデータ) (2022-02-14T06:32:21Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - Probing Predictions on OOD Images via Nearest Categories [97.055916832257]
ニューラルネットワークが未確認のクラスや破損したイメージから画像を分類する際のアウト・オブ・ディストリビューション(OOD)予測挙動について検討する。
我々は、トレーニングセットにおいて、最も近い隣人と同じラベルで分類されたOOD入力の分数を計算するため、新しい測度、最も近いカテゴリ一般化(NCG)を導入する。
我々は、OODデータがロバストネス半径よりも遥かに遠くにある場合でも、ロバストネットワークは自然訓練よりも一貫してNCG精度が高いことを発見した。
論文 参考訳(メタデータ) (2020-11-17T07:42:27Z) - Masked Contrastive Representation Learning for Reinforcement Learning [202.8261654227565]
コントラスト学習を用いて個々のビデオフレームの原画素から高次特徴を抽出するCURLは,効率的なアルゴリズムである。
本稿では,連続した入力間の相関を考慮に入れたRLのための新しいアルゴリズム,マスク付きコントラスト表現学習を提案する。
DMControlスイートの16ドル環境中14ドル,Atari 2600 Gamesの26ドル環境中21ドル環境中26ドル環境中24ドルで,CURLに対する一貫した改善を実現している。
論文 参考訳(メタデータ) (2020-10-15T02:00:10Z) - Deep Collective Learning: Learning Optimal Inputs and Weights Jointly in
Deep Neural Networks [5.6592403195043826]
ディープラーニングとコンピュータビジョン文学では、視覚データは、常に手動で設計されたコーディングスキームで表現される。
手動で設計した入力が、異なるタスクに対するDNNトレーニングに適しているのか、大胆に疑問を呈する。
本稿では,DNNの重みとDNNへの入力を同時に学習することを目的とした,深い集団学習のパラダイムを提案する。
論文 参考訳(メタデータ) (2020-09-17T00:33:04Z) - Visually Impaired Aid using Convolutional Neural Networks, Transfer
Learning, and Particle Competition and Cooperation [0.0]
本稿では、畳み込みニューラルネットワーク(CNN)、伝達学習、半教師付き学習(SSL)を用いて、視覚障害者支援を目的としたフレームワークを構築することを提案する。
計算コストが低く、従って、追加の機器に頼ることなく、現在のスマートフォンで実装することができる。
論文 参考訳(メタデータ) (2020-05-09T16:11:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。