論文の概要: Curiosity Over Hype: Modeling Motivation Language to Understand Early Outcomes in a Selective Quantum Track
- arxiv url: http://arxiv.org/abs/2602.19659v1
- Date: Mon, 23 Feb 2026 10:09:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.761174
- Title: Curiosity Over Hype: Modeling Motivation Language to Understand Early Outcomes in a Selective Quantum Track
- Title(参考訳): ハイプに対する好奇心:選択量子トラックにおける初期結果の理解のためのモチベーション言語モデリング
- Authors: Daniella Alexandra Crysti Vargas Saldana, Freddy Herrera Cueva,
- Abstract要約: 我々は,QuantumHub Peru が実行した初期の量子コンピューティング経路において,スペイン語の短い受入応答における潜在モチベーション信号がエンゲージメントと性能を予測できるかどうかを検討した。
我々は、応募者のオープン応答を分析し、2つの選択モジュールの結果とリンクする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study whether latent motivation signals in short Spanish admission responses predict engagement and performance in an early quantum computing pathway run by QuantumHub Peru. We analyze N=241 applicants' open responses and link them to outcomes from two selective modules: Module 1 (secondary; mathematics and computing foundations; n=23) and Module 2 (secondary + early undergraduate; quantum fundamentals; n=36, including M1 continuers). To ensure baseline comparability, the M2 university entrance exam matched the difficulty of the M1 final. Final grades followed the program's official cohort-specific weightings (attendance/assignments/exam), which we retain to preserve ecological validity. Methodologically, we model text with Latent Dirichlet Allocation (LDA, k=8) and, for robustness, with sentence embeddings from a small multilingual language model, EmbeddingGemma-300M, projected via UMAP and clustered with HDBSCAN. This combination leverages the transparency of bag-of-words topics and the semantic richness of small language model embeddings. Descriptively, curiosity/learning topics show higher grades and attendance than technology/career-oriented topics; inferential tests are underpowered (e.g., linear R2 ~ 0.03; logistic pseudo-R2 ~ 0.04) so effect-size estimates should be viewed as preliminary rather than confirmatory. Embedding-based clustering yields seven clusters with 11.2% noise and modest agreement with LDA (ARI=0.068; NMI=0.163). Results suggest that brief motivation responses encode promising signals that could support early mentoring in rigorous STEM pipelines, while highlighting the need for larger, pre-registered studies.
- Abstract(参考訳): 我々は,QuantumHub Peru が実行した初期の量子コンピューティング経路において,スペイン語の短い受入応答における潜在モチベーション信号がエンゲージメントと性能を予測できるかどうかを検討した。
N=241 の応募者のオープン応答を分析し、加群 1 (二次、数学と計算の基礎; n=23) と加群 2 (二次 + 初期学部; 量子基礎; n=36、M1 継続子を含む) の2つの選択的な加群の結果とリンクする。
ベースラインの互換性を確保するため、M2大学の入学試験はM1ファイナルの難しさと一致した。
最終学年は, 生態学的妥当性を維持するために, プログラムの公式なコホート比重付け(アテンダンス/アサインメント/エグザム)を踏襲した。
メソジカルには、Latent Dirichlet Allocation (LDA, k=8) を用いてテキストをモデル化し、また、多言語言語モデル EmbeddingGemma-300M の文を UMAP で投影し、HDBSCAN でクラスタ化する。
この組み合わせは、back-of-wordsトピックの透明性と、小さな言語モデルの埋め込みのセマンティックリッチネスを活用する。
例えば、線形R2 ~ 0.03; 対数的擬似R2 ~ 0.04) であるので、効果の大きさの見積もりは確認よりも予備的なものと見なすべきである。
埋め込みベースのクラスタリングは、11.2%のノイズを持つ7つのクラスタとLDA(ARI=0.068; NMI=0.163)との穏やかな一致をもたらす。
以上の結果から,厳格なSTEMパイプラインの早期メンタリングを支援するための有望なシグナルを短時間のモチベーション応答で符号化し,より大規模で事前登録された研究の必要性を強調した。
関連論文リスト
- Binary Token-Level Classification with DeBERTa for All-Type MWE Identification: A Lightweight Approach with Linguistic Enhancement [1.8429656136522097]
本稿では,バイナリトークンレベルの分類,言語的特徴の統合,データ拡張を組み合わせた,MWE識別のための包括的アプローチを提案する。
我々のDeBERTa-v3大規模モデルは、CoAMデータセット上で69.8%のF1を達成し、このデータセットで最高の結果(Qwen-72B, 57.8% F1)を12ポイント上回り、パラメータは165倍少ない。
論文 参考訳(メタデータ) (2026-01-27T08:42:54Z) - Fine-Tuning BERT for Domain-Specific Question Answering: Toward Educational NLP Resources at University Scale [0.0]
リメリック大学の電子計算機工学科は、学生にコース情報を提供するロボットを開発した。
SQuAD形式での1,203の質問応答対のカスタムデータセットは、手動および合成的に生成されたエントリを補足した、大学のモジュールの本を用いて構築された。
その結果,微調整さえも仮説フレーミングや知識抽出を改善することがわかった。
学術的なペアによる微調整BERTが効果的な結果をもたらすことを示すことで,このギャップに対処する。
論文 参考訳(メタデータ) (2025-12-04T18:27:46Z) - Closing the Gap: Data-Centric Fine-Tuning of Vision Language Models for the Standardized Exam Questions [0.0]
高品質なデータによる教師付き微調整は、プロプライエタリなアプローチと競合する可能性があることを示す。
以上の結果から,データ合成と表現構文がマルチモーダル推論において決定的な役割を果たすことが明らかとなった。
論文 参考訳(メタデータ) (2025-11-14T14:28:14Z) - MobileLLM-R1: Exploring the Limits of Sub-Billion Language Model Reasoners with Open Training Recipes [60.57770396565211]
強い推論能力は、はるかに少ないデータで実現可能であることを示す。
MobileLLM-R50MのAIMEスコアは15.5であり、OLMo-2-1.48Bは0.6、SmolLM-2-1.7Bは0.3である。
論文 参考訳(メタデータ) (2025-09-29T15:43:59Z) - SLRTP2025 Sign Language Production Challenge: Methodology, Results, and Future Work [87.9341538630949]
第1回手話生産チャレンジはCVPR 2025で第3回SLRTPワークショップの一環として開催された。
コンペティションの目的は、音声言語文からスケルトンポーズのシーケンスに変換するアーキテクチャを評価することである。
本稿では,挑戦設計と入賞方法について述べる。
論文 参考訳(メタデータ) (2025-08-09T11:57:33Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Multimodal Chain-of-Thought Reasoning in Language Models [94.70184390935661]
言語(テキスト)と視覚(画像)のモダリティを2段階のフレームワークに組み込んだマルチモーダルCoTを提案する。
その結果,ScienceQA と A-OKVQA のベンチマークは,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-02-02T07:51:19Z) - Evidence > Intuition: Transferability Estimation for Encoder Selection [16.490047604583882]
我々は、全ての候補を微調整することなく、目標タスクにおいてどのLMが最善を尽くすかを予測する定量的な証拠を生成する。
我々は,コンピュータビジョン(CV)のLogME(Logarithm Maximum of Evidence)尺度を採用し,94%のセットアップにおいて,最終的なLM性能と正の相関関係があることを見出した。
論文 参考訳(メタデータ) (2022-10-20T13:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。