論文の概要: The Promotion Wall: Efficiency-Equity Trade-offs of Direct Promotion Regimes in Engineering Education
- arxiv url: http://arxiv.org/abs/2511.17182v1
- Date: Fri, 21 Nov 2025 12:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.002721
- Title: The Promotion Wall: Efficiency-Equity Trade-offs of Direct Promotion Regimes in Engineering Education
- Title(参考訳): 推進壁:工学教育における直接推進レジームの効率・等価トレードオフ
- Authors: H. R. Paz,
- Abstract要約: 記事は、調整されたエージェントベースモデルを使用して、代替の進歩体制が、ドロップアウト、タイム・ツー・ディグリー、エクイティ、学生の心理的体験をどのように再構成するかを調べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Progression and assessment rules are often treated as administrative details, yet they fundamentally shape who is allowed to remain in higher education, and on what terms. This article uses a calibrated agent-based model to examine how alternative progression regimes reconfigure dropout, time-to-degree, equity and students' psychological experience in a long, tightly sequenced engineering programme. Building on a leakage-aware longitudinal dataset of 1,343 students and a Kaplan-Meier survival analysis of time-to-dropout, we simulate three policy scenarios: (A) a historical "regularity + finals" regime, where students accumulate exam debt; (B) a direct-promotion regime that removes regularity and finals but requires full course completion each term; and (C) a direct-promotion regime complemented by a capacity-limited remedial "safety net" for marginal failures in bottleneck courses. The model is empirically calibrated to reproduce the observed dropout curve under Scenario A and then used to explore counterfactuals. Results show that direct promotion creates a "promotion wall": attrition becomes sharply front-loaded in the first two years, overall dropout rises, and equity gaps between low- and high-resilience students widen, even as exam debt disappears. The safety-net scenario partially dismantles this wall: it reduces dropout and equity gaps relative to pure direct promotion and yields the lowest final stress levels, at the cost of additional, targeted teaching capacity. These findings position progression rules as central objects of assessment policy rather than neutral background. The article argues that claims of improved efficiency are incomplete unless they are evaluated jointly with inclusion, equity and students' psychological wellbeing, and it illustrates how simulation-based decision support can help institutions rehearse assessment reforms before implementing them.
- Abstract(参考訳): 進歩と評価の規則は、しばしば行政上の詳細として扱われるが、それらは基本的に、高等教育に留まることが許される者を、どの条件で構成する。
本稿では, 長期的かつ厳密なエンジニアリングプログラムにおいて, 代替の進歩体制が, ドロップアウト, タイム・ツー・ディグリー, エクイティ, 学生の心理的体験をどのように再構成するかを検討するために, 校正されたエージェントベースモデルを用いる。
1,343名の学生の漏洩を意識した縦断的データセットと,A)学生が試験負債を蓄積する歴史的「規則性+最終」体制,(B)正規性や最終性は排除するが、各項の完全なコース完了を必要とする直接推進体制,(C)ボトルネックコースにおける限界障害に対する容量制限リメディカル「安全ネット」を補完する直接推進体制,の3つの政策シナリオをシミュレートする。
このモデルは、Scenario Aの下で観測されたドロップアウト曲線を再現するために経験的に校正され、その後、反事実を探索するために使用される。
結果は、直接の昇進が「推進壁」を生み出していることを示しており、最初の2年で誘惑は急激に前向きになり、全体的なドロップアウトが増加し、試験債務が消滅しても、低学年と高学年の格差が拡大することを示している。
安全ネットのシナリオは、この壁を部分的に解体する: 純粋な直接プロモーションに対して、ドロップアウトとエクイティのギャップを減らし、目標とする教育能力を犠牲にして、最終ストレスレベルを低くする。
これらの知見は、進行規則を中立的背景よりも評価政策の中心的な対象と位置づけた。
本論文は, 改善効率の主張は, 包括的, 自己資本的, 学生の心理的幸福と共同で評価されない限り不完全であり, シミュレーションに基づく意思決定支援が, 実施前の評価改革のリハーサルにどう役立つかを示すものである。
関連論文リスト
- An Agent-Based Simulation of Regularity-Driven Student Attrition: How Institutional Time-to-Live Constraints Create a Dropout Trap in Higher Education [0.0]
『正規性トラップ』は、厳格な評価タイムラインが認定から学習を分離する現象である。
CAPIREフレームワークを校正されたエージェントベースモデル(ABM)に運用し、42コースの土木工学カリキュラムで1,343人の学生の軌跡をシミュレートする。
その結果、観察されたドロップアウトの86.4%は、純粋に学術的な失敗ではなく、規範的なメカニズム(経験的なカスケード)によって駆動されていることが明らかとなった。
論文 参考訳(メタデータ) (2025-11-20T11:21:39Z) - Provable Benefit of Curriculum in Transformer Tree-Reasoning Post-Training [76.12556589212666]
学習後のカリキュラムは指数関数的複雑性のボトルネックを回避していることを示す。
結果のみの報酬信号の下では、強化学習の微調整は、サンプルの複雑さを高い精度で達成する。
カリキュラムを意識したクエリにより、報奨託書の呼び出しとサンプリングコストの両方を指数関数的に削減するテストタイムスケーリングの保証を確立する。
論文 参考訳(メタデータ) (2025-11-10T18:29:54Z) - Stabilizing Policy Gradients for Sample-Efficient Reinforcement Learning in LLM Reasoning [77.92320830700797]
強化学習は、大規模言語モデルの推論機能を実現する上で中心的な役割を果たしてきた。
本稿では,ポリシー更新時の曲率情報を追跡し,活用するトラクタブルな計算フレームワークを提案する。
アルゴリズムであるCurvature-Aware Policy Optimization (CAPO)は、不安定な更新に寄与するサンプルを特定し、それらをマスクアウトする。
論文 参考訳(メタデータ) (2025-10-01T12:29:32Z) - Overthinking Reduction with Decoupled Rewards and Curriculum Data Scheduling [41.834250664485666]
大規模な推論モデルは、パフォーマンス上のメリットのない、過度に長い推論パスを生成します。
長さをペナライズする既存のソリューションは、しばしば失敗し、パフォーマンスが低下する。
我々は、現在長さの報酬に未適応な2つの欠陥の理論的発見に基づいて、新しいフレームワークDECSを紹介した。
論文 参考訳(メタデータ) (2025-09-30T06:04:43Z) - PCPO: Proportionate Credit Policy Optimization for Aligning Image Generation Models [54.18605375476406]
安定的な客観的な改革と原則的なタイムステップの再重み付けを通じて、比例的な信用割当を強制する枠組みであるPCPO(Proportionate Credit Policy Optimization)を導入する。
PCPOは、最先端のDanceGRPOを含むすべての面で、既存の方針勾配ベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-09-30T04:43:58Z) - Hierarchical Decomposition of Prompt-Based Continual Learning:
Rethinking Obscured Sub-optimality [55.88910947643436]
大量のラベルのないデータを実際に扱うためには、自己教師付き事前トレーニングが不可欠である。
HiDe-Promptは、タスク固有のプロンプトと統計のアンサンブルで階層的なコンポーネントを明示的に最適化する革新的なアプローチである。
実験では,HiDe-Promptの優れた性能と,継続学習における事前学習パラダイムへの頑健さを実証した。
論文 参考訳(メタデータ) (2023-10-11T06:51:46Z) - Hindsight-DICE: Stable Credit Assignment for Deep Reinforcement Learning [11.084321518414226]
我々は,既存の重要度・重要度比推定手法をオフ政治評価に適用し,いわゆる後見政策手法の安定性と効率を大幅に向上させる。
我々の後視分布補正は、信用代入がベースライン手法を悩ませている広範囲の環境において、安定的で効率的な学習を容易にする。
論文 参考訳(メタデータ) (2023-07-21T20:54:52Z) - CRISP: Curriculum Inducing Primitive Informed Subgoal Prediction for Hierarchical Reinforcement Learning [25.84621883831624]
CRISPは、階層的強化学習における不安定性に取り組むカリキュラム駆動のフレームワークである。
現在の低レベルプリミティブによって常に到達可能なサブゴールを生成するために、エキスパートのデモを適応的にリラベルする。
強い階層的ベースラインと平坦なベースラインに対して、成功率を40%以上向上させる。
論文 参考訳(メタデータ) (2023-04-07T08:22:50Z) - Revisiting Estimation Bias in Policy Gradients for Deep Reinforcement
Learning [0.0]
我々は、Deep Reinforcement Learningの観点から、割引されたエピソードマルコフ決定プロセス(MDP)の政策勾配の推定バイアスを再考する。
主要な政策バイアスの1つは、州の分散シフトである。
このような状態分布シフトにもかかわらず、政策勾配推定バイアスは以下の3つの方法で低減できることを示す。
論文 参考訳(メタデータ) (2023-01-20T06:46:43Z) - DDPG++: Striving for Simplicity in Continuous-control Off-Policy
Reinforcement Learning [95.60782037764928]
過大評価バイアスが制御される限り、単純な決定論的政策勾配は著しく機能することを示す。
第二に、非政治的なアルゴリズムの典型であるトレーニングの不安定性を、欲張りのポリシー更新ステップに向ける。
第3に、確率推定文学におけるアイデアは、リプレイバッファからの重要サンプル遷移や、性能劣化を防ぐためのポリシー更新に利用できることを示す。
論文 参考訳(メタデータ) (2020-06-26T20:21:12Z) - Corruption-robust exploration in episodic reinforcement learning [76.19192549843727]
本研究は, システムにおける報酬と遷移確率の両面において, 敵対的腐敗下での多段階・多段階・多段階強化学習について検討した。
我々の枠組みは、汚職の欠如をほぼ最適に後悔する効率的なアルゴリズムをもたらす。
特に,本研究は,根本的強化学習のためのBandit-Feedbackモデルにおいて,純粋にI.d.遷移からの逸脱を保証した最初のサブ線形後悔の保証を提供する。
論文 参考訳(メタデータ) (2019-11-20T03:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。