論文の概要: DeBERTa-KC: A Transformer-Based Classifier for Knowledge Construction in Online Learning Discourse
- arxiv url: http://arxiv.org/abs/2510.19858v1
- Date: Tue, 21 Oct 2025 20:26:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.335955
- Title: DeBERTa-KC: A Transformer-Based Classifier for Knowledge Construction in Online Learning Discourse
- Title(参考訳): DeBERTa-KC:オンライン学習談話における知識構築のためのトランスフォーマーベース分類器
- Authors: Jindi Wang, Yidi Zhang, Zhaoxing Li,
- Abstract要約: DeBERTa-KCは、オンラインサイエンス学習談話における知識構築(KC)レベルの自動分類のためのトランスフォーマーベースのモデルである。
4つのKCカテゴリ(textitnonKC, textitShare, textitExplore, textitNegotiate)にまたがって20,000の手動で注釈付きサンプルが作成された。
提案したモデルは,DeBERTa-v3を拡張し,Focal Loss, Label Smoothing, R-Drop regularization を用いてクラス不均衡に対処し,一般化を向上させる。
- 参考スコア(独自算出の注目度): 4.618342129914455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents DeBERTa-KC, a transformer-based model for automatic classification of knowledge construction (KC) levels in online science learning discourse. Using comments collected from four popular YouTube science channels (2022--2024), a balanced corpus of 20,000 manually annotated samples was created across four KC categories: \textit{nonKC}, \textit{Share}, \textit{Explore}, and \textit{Negotiate}. The proposed model extends DeBERTa-v3 with Focal Loss, Label Smoothing, and R-Drop regularization to address class imbalance and enhance generalization. A reproducible end-to-end pipeline was implemented, encompassing data extraction, annotation, preprocessing, training, and evaluation. Across 10-fold stratified cross-validation, DeBERTa-KC achieved a macro-F1 of $0.836 \pm 0.008$, significantly out-performing both classical and transformer baselines ($p<0.01$). Per-category results indicate strong sensitivity to higher-order epistemic engagement, particularly in \textit{Explore} and \textit{Negotiate} discourse. These findings demonstrate that large language models can effectively capture nuanced indicators of knowledge construction in informal digital learning environments, offering scalable, theory-informed approaches to discourse analysis and the development of automated tools for assessing epistemic engagement.
- Abstract(参考訳): 本研究では,オンライン学習談話における知識構築自動分類モデルであるDeBERTa-KCを提案する。
人気の4つのYouTubeサイエンスチャンネル(2022年-2024年)から収集されたコメントを用いて、KCの4つのカテゴリ( \textit{nonKC}, \textit{Share}, \textit{Explore}, \textit{Negotiate})に2万の注釈付きサンプルのバランスがとられたコーパスが作成された。
提案したモデルは,DeBERTa-v3を拡張し,Focal Loss, Label Smoothing, R-Drop regularization を用いてクラス不均衡に対処し,一般化を向上させる。
データ抽出、アノテーション、前処理、トレーニング、評価を含む再現可能なエンドツーエンドパイプラインが実装された。
DeBERTa-KCは10倍の層状クロスバリデーションで$0.836 \pm 0.008$のマクロF1を達成し、古典的およびトランスフォーマーベースライン(p<0.01$)を著しく上回った。
特にtextit{Explore} と \textit{Negotiate} の談話では、カテゴリーごとの結果は高次てんかんに対する強い感受性を示す。
これらの結果から,大規模言語モデルにより,非公式なデジタル学習環境における知識構築のニュアンスな指標を効果的に把握し,言論分析へのスケーラブルで理論インフォームドなアプローチと,情緒的エンゲージメントを評価する自動化ツールの開発が可能であることが示唆された。
関連論文リスト
- Expert Knowledge-Guided Decision Calibration for Accurate Fine-Grained Tree Species Classification [14.123072349997743]
本稿では,これらの課題を克服するためのエキスパート知識指導型分類決定ネットワーク(EKDC-Net)を提案する。
私たちのフレームワークは、専門家の知識抽出と利用の2つの問題に対処しています。
軽量なプラグアンドプレイモジュールとして、EKDC-Netは0.08M追加の学習可能なパラメータを使用してバックボーンの精度を11.46%改善した。
論文 参考訳(メタデータ) (2026-01-23T07:02:13Z) - Context-Adaptive Requirements Defect Prediction through Human-LLM Collaboration [1.4499356176178066]
本稿では,欠陥予測を静的な分類タスクではなく適応プロセスとして扱うHuman-LLM Collaboration(HLC)アプローチを提案する。
メルセデス・ベンツの要求条件である1,266のQuREベンチマークの弱い単語の匂いを用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2026-01-05T10:00:14Z) - Data-Efficient American Sign Language Recognition via Few-Shot Prototypical Networks [0.0]
孤立手話認識は、難聴者と難聴者(DHH)コミュニティと聴覚世界との間のコミュニケーションギャップを埋めるために重要である。
骨格型エンコーダに適応したFew-Shot Prototypeal Networkフレームワークを提案する。
提案手法は,記号が動的クラスプロトタイプに近接して分類される意味的距離空間の学習に,韻律的学習を利用する。
論文 参考訳(メタデータ) (2025-12-11T11:50:03Z) - StylOch at PAN: Gradient-Boosted Trees with Frequency-Based Stylometric Features [0.1499944454332829]
このバイナリAI検出タスクへの提出は、モジュラースタイルのパイプラインに基づいている。
我々は、分類器の訓練のために、50万以上の機械生成テキストの大規模なコーパスを収集する。
提案手法は,非神経的,計算コストが低く,説明可能なアプローチに従う。
論文 参考訳(メタデータ) (2025-07-16T09:21:20Z) - Unearthing Skill-Level Insights for Understanding Trade-Offs of Foundation Models [61.467781476005435]
集約精度を検査する際には、スキルワイドのパフォーマンスが不明確になる。
モデル生成論理を検査することで,任意の評価事例に関連する基礎的スキルを復元する自動手法を提案する。
私たちのスキルスライスとフレームワークは、モデル評価の新しい道を開き、スキル固有の分析を活用して、よりきめ細やかで実用的なモデル機能の理解を解き放ちます。
論文 参考訳(メタデータ) (2024-10-17T17:51:40Z) - Analysis of Argument Structure Constructions in the Large Language Model BERT [0.0]
本研究は, BERTがArgument Structure Constructions (ASCs) をどのように処理し, 表現するかについて検討する。
4つのASCタイプにわたる2000文のデータセットを用いて、BERTのトークン埋め込みを12層にわたって分析した。
論文 参考訳(メタデータ) (2024-08-08T07:12:46Z) - ILLUMINER: Instruction-tuned Large Language Models as Few-shot Intent Classifier and Slot Filler [1.9015367254988451]
本研究では、インテント分類(IC)とスロットフィリング(SF)のための人気のあるベンチマークデータセット上で、命令調整モデル(インストラクション-LLM)を評価する。
Instruct-LLM の言語生成タスクとして IC と SF をフレーミングする ILLUMINER を導入する。
FLAN-T5 11Bモデルを用いた複数のベースラインとの総合的な比較から,本手法は最先端のジョイントIC+SF法やGPT3.5 (175B) を用いたテキスト内学習よりも優れていた。
論文 参考訳(メタデータ) (2024-03-26T09:41:21Z) - Unifying Structure and Language Semantic for Efficient Contrastive
Knowledge Graph Completion with Structured Entity Anchors [0.3913403111891026]
知識グラフ補完(KGC)の目標は、すでに知られている訓練された事実を用いて、KGの欠落したリンクを予測することである。
本稿では,帰納的推論の力を失うことなく,構造情報と言語意味を効果的に統一する手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:17:55Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - A Machine Learning Approach to Classifying Construction Cost Documents
into the International Construction Measurement Standard [0.0]
原価文書で提供される自然言語記述を分類する最初の自動モデル「Bills of Quantities」を紹介した。
英国中の24の大規模なインフラ建設プロジェクトから収集された5万件以上の項目のデータセットから学習する。
論文 参考訳(メタデータ) (2022-10-24T11:35:53Z) - Enabling Classifiers to Make Judgements Explicitly Aligned with Human
Values [73.82043713141142]
性差別/人種差別の検出や毒性検出などの多くのNLP分類タスクは、人間の値に基づいている。
本稿では,コマンド内で明示的に記述された人間の値に基づいて予測を行う,値整合型分類のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-14T09:10:49Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Solving Long-tailed Recognition with Deep Realistic Taxonomic Classifier [68.38233199030908]
ロングテール認識は、現実世界のシナリオにおける自然な非一様分散データに取り組む。
モダンは人口密度の高いクラスではうまく機能するが、そのパフォーマンスはテールクラスでは著しく低下する。
Deep-RTCは、リアリズムと階層的予測を組み合わせたロングテール問題の新しい解法として提案されている。
論文 参考訳(メタデータ) (2020-07-20T05:57:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。