論文の概要: MobileFetalCLIP: Selective Repulsive Knowledge Distillation for Mobile Fetal Ultrasound Analysis
- arxiv url: http://arxiv.org/abs/2603.05421v1
- Date: Thu, 05 Mar 2026 17:43:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.350189
- Title: MobileFetalCLIP: Selective Repulsive Knowledge Distillation for Mobile Fetal Ultrasound Analysis
- Title(参考訳): MobileFetalCLIP:移動体超音波解析のための選択的反発型知識蒸留法
- Authors: Numan Saeed, Fadillah Adamsyah Maani, Mohammad Yaqub,
- Abstract要約: 現在の基礎モデルは3億の視覚的パラメータを超える。
標準的な知識蒸留は、このような極端な容量ギャップの下で失敗する。
本稿では, 対角成分と対角成分に分解する選択的反発的知識蒸留法を提案する。
- 参考スコア(独自算出の注目度): 3.067558596666492
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fetal ultrasound AI could transform prenatal care in low-resource settings, yet current foundation models exceed 300M visual parameters, precluding deployment on point-of-care devices. Standard knowledge distillation fails under such extreme capacity gaps (~26x), as compact students waste capacity mimicking architectural artifacts of oversized teachers. We introduce Selective Repulsive Knowledge Distillation, which decomposes contrastive KD into diagonal and off-diagonal components: matched pair alignment is preserved while the off-diagonal weight decays into negative values, repelling the student from the teacher's inter-class confusions and forcing discovery of architecturally native features. Our 11.4M parameter student surpasses the 304M-parameter FetalCLIP teacher on zero-shot HC18 biometry validity (88.6% vs. 83.5%) and brain sub-plane F1 (0.784 vs. 0.702), while running at 1.6 ms on iPhone 16 Pro, enabling real-time assistive AI on handheld ultrasound devices. Our code, models, and app are publicly available at https://github.com/numanai/MobileFetalCLIP.
- Abstract(参考訳): 胎児超音波AIは、低リソース環境で出生前ケアを変えることができるが、現在の基礎モデルは3億の視覚的パラメータを超え、ポイント・オブ・ケアデバイスへの展開を先取りしている。
標準的な知識蒸留は、過大な教師の建築的アーティファクトを模倣するコンパクトな学生の容量を無駄にするため、このような極端な容量ギャップ(約26倍)で失敗する。
対角成分と対角成分に対比したKDを分解し,対角成分を対角成分と対角成分に分解するSelective Repulsive Knowledge Distillationを導入する。
私たちの11.4Mパラメータ学生は、304MパラメーターのFetalCLIP教師を、ゼロショットHC18バイオメトリの妥当性(88.6% vs. 83.5%)と脳サブプレーンF1(0.784 vs. 0.702)で上回り、iPhone 16 Proで1.6msで実行し、ハンドヘルド超音波デバイス上でリアルタイムの補助AIを可能にする。
私たちのコード、モデル、アプリはhttps://github.com/numanai/MobileFetalCLIP.comで公開されています。
関連論文リスト
- Synthetic-Child: An AIGC-Based Synthetic Data Pipeline for Privacy-Preserving Child Posture Estimation [0.0]
Synthetic-Child(シンセティック・チルド)は、児童姿勢訓練用の画像を生成する合成データパイプラインである。
本システムでは,テスト対象のカテゴリの認識率を大幅に向上し,平均1.8倍の速度で応答する。
論文 参考訳(メタデータ) (2026-03-03T04:50:29Z) - FUGC: Benchmarking Semi-Supervised Learning Methods for Cervical Segmentation [63.7829089874007]
本稿では,頚椎椎間板断裂における半教師あり学習のための最初のベンチマークであるFetal Ultrasound Grand Challenge (FUGC)を紹介する。
FUGCは、500のトレーニング画像、90の検証画像、300のテスト画像を含む890のTVSイメージのデータセットを提供する。
Dice similarity Coefficient (DSC), Hausdorff Distance (HD), and Runtime (RT), with a weighted combination of 0.4/0.4/0.2。
論文 参考訳(メタデータ) (2026-01-22T01:34:39Z) - When Smaller Wins: Dual-Stage Distillation and Pareto-Guided Compression of Liquid Neural Networks for Edge Battery Prognostics [5.673911498443588]
本稿では, 液状ニューラルネットワークを二段蒸留したDLNetについて述べる。
これは、高容量モデルを、バッテリーの健康予測のためにコンパクトでエッジにデプロイ可能なモデルに変える。
論文 参考訳(メタデータ) (2026-01-09T10:20:21Z) - Cross-Architecture Knowledge Distillation (KD) for Retinal Fundus Image Anomaly Detection on NVIDIA Jetson Nano [0.0]
我々は、I-JEPA自己教師型学習を用いて事前訓練した高容量視覚変換器(ViT)教師モデルを訓練し、眼底画像を正常、糖尿病網膜症、緑内障、白内障の4つのクラスに分類する。
私たちの研究は、低リソース領域の網膜障害に対するスケーラブルでAI駆動のトリアージソリューションの例です。
論文 参考訳(メタデータ) (2025-06-23T00:57:43Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [56.99710477905796]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - TinyCLIP: CLIP Distillation via Affinity Mimicking and Weight
Inheritance [97.01406871579525]
大規模言語画像事前学習モデルのための新しいクロスモーダル蒸留法TinyCLIPを提案する。
また、TinyCLIPは、トレーニング済みのCLIP ViT-B/32のサイズを50%削減し、ゼロショット性能を同等に維持できることを示した。
YFCC-15MでトレーニングしたTinyCLIP ViT-8M/16は、ImageNetで41.1%という印象的なゼロショットトップ1の精度を達成した。
論文 参考訳(メタデータ) (2023-09-21T17:59:53Z) - Explainable Knowledge Distillation for On-device Chest X-Ray
Classification [7.319145625411966]
実時間多ラベルCXR画像分類のための,コンパクトな深層学習モデルを作成するための知識蒸留(KD)戦略を提案する。
3つのベンチマークCXRデータセットの結果から,我々のKD戦略は,コンパクトな学生モデルの性能向上を図っている。
論文 参考訳(メタデータ) (2023-05-10T15:25:05Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - A Self-Tuning Actor-Critic Algorithm [57.46821456365635]
Self-Tuning Actor-Critic (STAC) は強化学習のためのアルゴリズムである。
STACは使いやすく、サンプリング効率が良く、計算量を大幅に増やす必要がない。
研究によると、STACは2億ステップのヒト正当化スコアを243%から364%に改善した。
論文 参考訳(メタデータ) (2020-02-28T18:55:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。