論文の概要: Early Results from Teaching Modelling for Software Comprehension in New-Hire Onboarding
- arxiv url: http://arxiv.org/abs/2510.07010v1
- Date: Wed, 08 Oct 2025 13:35:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.51812
- Title: Early Results from Teaching Modelling for Software Comprehension in New-Hire Onboarding
- Title(参考訳): 新入社におけるソフトウェア理解教育の成果
- Authors: Mrityunjay Kumar, Venkatesh Choppella,
- Abstract要約: システム思考と Labelled Transition System (LTS) モデルを導入した5段階のコースの結果を報告する。
参加者は構造化テンプレートを使って製品の振る舞いを理解し、事前評価と後評価を完了した。
短期的なモデリングに焦点を当てた介入は、準備不足の新規雇用の理解を加速させる可能性がある。
- 参考スコア(独自算出の注目度): 0.08594140167290097
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Working effectively with large, existing software systems requires strong comprehension skills, yet most graduates enter the industry with little preparation for this challenge. We report early results from a pilot intervention integrated into a SaaS company's onboarding program: a five-session course introducing systems thinking and Labelled Transition System (LTS) modelling. Participants articulated their understanding of product behaviour using a structured template and completed matched pre- and post-assessments. Of 35 new hires, 31 provided paired records for analysis. Across the full cohort, gains were small and not statistically significant. However, participants below the median on the pre-test improved by 15 percentage points on average (statistically significant), while those above the median regressed slightly (not statistically significant). Course feedback indicated high engagement and perceived applicability. These results suggest that short, modelling-focused onboarding interventions can accelerate comprehension for less-prepared new hires. At the same time, they point to the need for differentiated pathways for stronger participants, and to the potential for companies to adopt such interventions at scale as a low-cost complement to existing onboarding.
- Abstract(参考訳): 大規模で既存のソフトウェアシステムで効果的に作業するには、強力な理解スキルが必要ですが、ほとんどの卒業生は、この課題に備えて業界に参入します。
我々は,SaaS企業のオンボードプログラムに組み込まれたパイロット介入による初期の成果を報告する。システム思考を導入した5セッションコースとLabelled Transition System(LTS)モデリングである。
参加者は構造化テンプレートを使って製品の振る舞いを理解し、事前評価と後評価を完了した。
35人の新規雇用者のうち31人は、分析のためにペア化された記録を提供した。
完全なコホート全体では、利得は小さく、統計的に有意ではなかった。
しかし、試験前の中央値以下では、平均で15ポイント(統計的に有意)、中央値以上ではわずかに(統計的には有意)改善した。
コースフィードバックは,高いエンゲージメントと適応性を示した。
これらの結果から,短期的,モデリングに焦点を絞った実施介入が,未準備の新規雇用の理解を加速させる可能性が示唆された。
同時に彼らは、より強力な参加者のための差別化された経路の必要性を指摘し、企業がそのような介入を大規模に導入し、既存の乗務員を低コストで補完する可能性を示している。
関連論文リスト
- Mid-Training of Large Language Models: A Survey [12.322464058364405]
大規模言語モデル(LLM)は通常、大規模事前学習とタスク固有の微調整によって開発される。
近年の進歩は中間訓練段階の重要性を浮き彫りにしている。
トレーニング中のデータ分散,学習速度スケジューリング,長文拡張の最初の分類について紹介する。
論文 参考訳(メタデータ) (2025-10-08T09:49:37Z) - Reinforcement Mid-Training [16.826401071555704]
トレーニング中における効率,適応性,統一的な強化のためのフレームワークを提案する。
RMTは,言語モデリングにおける推論長の21%に過ぎず,+64.91%の性能向上を実現している。
また, 強化中等訓練後に得られたチェックポイントは, その後のトレーニングに有効であり, 数学領域では+18.76%の改善が得られた。
論文 参考訳(メタデータ) (2025-09-29T07:21:24Z) - Context-Aware Multimodal Pretraining [72.04020920042574]
視覚言語モデルをトレーニングすることで,数ショット適応を著しく向上させることができることを示す。
テストタイムのサンプル効率は最大で4倍改善され、平均的な数ショット適応率は5%以上向上した。
論文 参考訳(メタデータ) (2024-11-22T17:55:39Z) - Revisiting the Power of Prompt for Visual Tuning [50.11465784194896]
本研究では,プロンプトとパッチトークンの相互関係について検討した。
プロンプトトークンはパッチトークンと高い相互情報を共有する傾向にあるという観測から着想を得て,下流トークンのプロトタイプを用いた初期化プロンプトを提案する。
本手法は, 自己指導型プレトレーニングの適応性を著しく向上させ, 少なくとも10%から30%のタスク性能向上を実現した。
論文 参考訳(メタデータ) (2024-02-04T07:49:02Z) - Bad Students Make Great Teachers: Active Learning Accelerates Large-Scale Visual Understanding [9.112203072394648]
パワーロースケーリングは、均一サンプリングによる大規模トレーニングが違法に遅いことを示している。
アクティブな学習手法は、最も関係のある事例に基づいて学習を優先順位付けすることで、データの効率を向上させることを目的としている。
論文 参考訳(メタデータ) (2023-12-08T19:26:13Z) - Uncertainty quantification for learned ISTA [5.706217259840463]
これらのモデルに基づく学習手法では,アルゴリズムの解法が顕著である。
確実性見積が欠如しており、不確実性定量化の理論はまだ解明されていない。
本研究は,LISTA推定器の信頼区間を得るための厳密な手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T18:39:07Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - A Survey on Programmatic Weak Supervision [74.13976343129966]
本稿では、PWS学習パラダイムの簡単な紹介と、各PWS学習ワークフローに対する代表的アプローチのレビューを行う。
この分野の今後の方向性に刺激を与えるために、この分野でまだ探索されていないいくつかの重要な課題を特定します。
論文 参考訳(メタデータ) (2022-02-11T04:05:38Z) - NoiER: An Approach for Training more Reliable Fine-TunedDownstream Task
Models [54.184609286094044]
補助モデルと付加データなしで問題を解くための学習パラダイムとして,ノイズエントロピー正規化(NoiER)を提案する。
提案手法は,従来の微調整モデルと比較して平均55%改善した。
論文 参考訳(メタデータ) (2021-08-29T06:58:28Z) - A Systematic Evaluation of Transfer Learning and Pseudo-labeling with
BERT-based Ranking Models [2.0498977512661267]
BERTに基づく5つの英語データセット間のニューラルランキングモデルの転送性を評価する。
各コレクションには膨大な数のクエリがあり、フルショット評価モードを可能にします。
擬似ラベルのトレーニングは、転送学習と比較して、競争力や優れたモデルを生み出すことができる。
論文 参考訳(メタデータ) (2021-03-04T21:08:06Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。