論文の概要: Pre-trained Encoders for Global Child Development: Transfer Learning Enables Deployment in Data-Scarce Settings
- arxiv url: http://arxiv.org/abs/2601.20987v1
- Date: Wed, 28 Jan 2026 19:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.404147
- Title: Pre-trained Encoders for Global Child Development: Transfer Learning Enables Deployment in Data-Scarce Settings
- Title(参考訳): グローバル・チャイルド・デベロップメントのための事前訓練エンコーダ:データ・スカース・セッティングにおけるトランスファー・ラーニングの展開を可能にする
- Authors: Md Muhtasim Munif Fahim, Md Rezaul Karim,
- Abstract要約: 44ヶ国357,709人の子どもを対象にUNICEFデータを用いて訓練を行った。
本稿では,事前学習した多様性が数ショットの一般化を可能にする理由を説明するために,転送学習を適用した。
これらの結果から、事前学習したエンコーダは、リソース制約のある環境で4.2.1の監視を行うためのMLの実現可能性を変えることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large number of children experience preventable developmental delays each year, yet the deployment of machine learning in new countries has been stymied by a data bottleneck: reliable models require thousands of samples, while new programs begin with fewer than 100. We introduce the first pre-trained encoder for global child development, trained on 357,709 children across 44 countries using UNICEF survey data. With only 50 training samples, the pre-trained encoder achieves an average AUC of 0.65 (95% CI: 0.56-0.72), outperforming cold-start gradient boosting at 0.61 by 8-12% across regions. At N=500, the encoder achieves an AUC of 0.73. Zero-shot deployment to unseen countries achieves AUCs up to 0.84. We apply a transfer learning bound to explain why pre-training diversity enables few-shot generalization. These results establish that pre-trained encoders can transform the feasibility of ML for SDG 4.2.1 monitoring in resource-constrained settings.
- Abstract(参考訳): 子どもたちは毎年、予防可能な開発遅延を経験するが、新しい国における機械学習の展開は、データボトルネックに悩まされている:信頼できるモデルは数千のサンプルを必要とし、新しいプログラムは100未満で始まる。
44ヶ国357,709人の子どもを対象にUNICEFサーベイデータを用いて訓練を行った。
50のトレーニングサンプルだけで、事前訓練されたエンコーダの平均AUCは0.65(95% CI: 0.56-0.72)に達し、寒冷開始勾配は0.61から8-12%向上した。
N=500では、エンコーダはAUCが0.73となる。
目に見えない国へのゼロショット展開は、AUCを最大0.84まで達成する。
本稿では,事前学習した多様性が数ショットの一般化を可能にする理由を説明するために,転送学習を適用した。
これらの結果から、事前学習したエンコーダは、資源制約のある環境でのSDG 4.2.1モニタリングのためのMLの実現可能性を変えることができることが判明した。
関連論文リスト
- R1-Code-Interpreter: LLMs Reason with Code via Supervised and Multi-stage Reinforcement Learning [23.795932850992816]
R1-Code-Interpreterは,マルチターン制御微調整(SFT)と強化学習(RL)によって訓練されたテキストのみの大規模言語モデル(LLM)の拡張である。
144種類の多種多様な推論・計画タスクにまたがる汎用コードインタープリタのトレーニングは,タスクの不均一性や有効サンプルの不足による重大な課題を呈している。
最終モデルであるR1-CI-14Bは、37のテストタスクの平均精度を44.1%から72.4%に改善し、テキストのみのGPT-4o (58.6%) と GPT-4o with Code Interpreter (70.9%) を上回りました。
論文 参考訳(メタデータ) (2025-05-27T18:47:33Z) - DigiRL: Training In-The-Wild Device-Control Agents with Autonomous Reinforcement Learning [61.10299147201369]
本稿では,Wild デバイス制御エージェントをトレーニングするための新しい自律型 RL 手法である DigiRL を提案する。
VLMベースの評価器を備えた,スケーラブルで並列化可能なAndroid学習環境を構築する。
我々はAndroid-in-the-Wildデータセットを使用してDigiRLの有効性を実証し、RLでトレーニングした1.3B VLMは49.5%の絶対改善を実現した。
論文 参考訳(メタデータ) (2024-06-14T17:49:55Z) - Multicenter Privacy-Preserving Model Training for Deep Learning Brain Metastases Autosegmentation [2.479757014250359]
本研究の目的は,マルチセンターデータの不均一性が深層学習脳転移(BM)オートセグメンテーション性能に与える影響を検討することである。
インクリメンタルトランスファー学習技術、すなわち、学習を忘れずに(LWF)、生データを共有せずにモデルの一般化性を改善する。
UKERプレトレーニングモデルがUSZに適用された場合、LWFはUKERとUSZテストデータの組み合わせで、単純TL(0.570)よりも平均F1スコア(0.839)、シングルセンタートレーニング(0.688)を達成する。
論文 参考訳(メタデータ) (2024-05-17T16:01:11Z) - DCLP: Neural Architecture Predictor with Curriculum Contrastive Learning [5.2319020651074215]
ニューラル予測器(DCLP)のためのカリキュラム誘導型コントラスト学習フレームワークを提案する。
本手法は,新たなカリキュラムを設計し,ラベルのないトレーニングデータ分布の安定性を高めることで,対照的なタスクを単純化する。
我々は既存の予測器と比較してDCLPの精度と効率が優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2023-02-25T08:16:21Z) - ZeroGen$^+$: Self-Guided High-Quality Data Generation in Efficient
Zero-Shot Learning [97.2907428983142]
ZeroGenは、純粋にPLMを使用してデータを生成し、タスク固有のアノテーションに頼ることなく、小さなモデルをトレーニングする。
金のデータを必要とせずに、サンプルごとの重み付けを学習できるノイズローバストなバイレベル再重み付けフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:38:48Z) - Learning Rate Curriculum [75.98230528486401]
ラーニングレートカリキュラム(LeRaC)と呼ばれる新しいカリキュラム学習手法を提案する。
LeRaCは、ニューラルネットワークの各レイヤ毎に異なる学習率を使用して、最初のトレーニングエポックの間、データに依存しないカリキュラムを作成する。
Smoothing(CBS)によるCurriculum(Curriculum)との比較を行った。
論文 参考訳(メタデータ) (2022-05-18T18:57:36Z) - Unsupervised Natural Language Inference Using PHL Triplet Generation [24.865202092518555]
トランスフォーマーベースのモデルは、トレーニングデータセットのトレーニングによって、さまざまな自然言語推論(NLI)ベンチマークで印象的なパフォーマンスを達成した。
トレーニングサンプルが入手できない場合や、それらを集めるのに時間を要する場合もあります。
本研究では,一連の文変換を利用した手続き型データ生成手法を提案する。
論文 参考訳(メタデータ) (2021-10-16T01:40:34Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and Spatially for Efficient DNN Training [62.932299614630985]
本稿では, アクティベーション, ウェイト, 勾配の精度を徐々に向上させる, プログレッシブ分数量子化を統合したFracTrainを提案する。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。