論文の概要: MeFEm: Medical Face Embedding model
- arxiv url: http://arxiv.org/abs/2602.14672v1
- Date: Mon, 16 Feb 2026 11:51:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.386515
- Title: MeFEm: Medical Face Embedding model
- Title(参考訳): MeFEm: 医療用フェイス埋め込みモデル
- Authors: Yury Borets, Stepan Botman,
- Abstract要約: We present MeFEm, a vision model on a modified joint Embedding Predictive Architecture (JEPA)。
主要な変更点としては、意味的に関連する領域に学習を集中させる軸方向のストライプマスキング戦略がある。
MeFEmは、FaRLやFrancaのような強力なベースラインを、人文計測のコアタスクで上回っている。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MeFEm, a vision model based on a modified Joint Embedding Predictive Architecture (JEPA) for biometric and medical analysis from facial images. Key modifications include an axial stripe masking strategy to focus learning on semantically relevant regions, a circular loss weighting scheme, and the probabilistic reassignment of the CLS token for high quality linear probing. Trained on a consolidated dataset of curated images, MeFEm outperforms strong baselines like FaRL and Franca on core anthropometric tasks despite using significantly less data. It also shows promising results on Body Mass Index (BMI) estimation, evaluated on a novel, consolidated closed-source dataset that addresses the domain bias prevalent in existing data. Model weights are available at https://huggingface.co/boretsyury/MeFEm , offering a strong baseline for future work in this domain.
- Abstract(参考訳): 顔画像から生体・医療分析を行うために,JEPA(Joint Embedding Predictive Architecture)を改良した視覚モデルMeFEmを提案する。
重要な変更点としては、意味的に関連する領域を学習する軸方向ストライプマスキング戦略、円損失重み付けスキーム、高品質な線形探索のためのCRSトークンの確率的再割り当てなどがある。
キュレートされた画像の統合データセットに基づいてトレーニングされたMeFEmは、データが少ないにもかかわらず、中核的な人文計測タスクにおいて、FaRLやFrancaのような強力なベースラインを上回っている。
また、既存のデータで広く見られるドメインバイアスに対処する、新しいクローズドソースデータセットに基づいて評価されたBMI(Body Mass Index)推定に関する有望な結果を示す。
モデルウェイトはhttps://huggingface.co/boretsyury/MeFEmで入手できる。
関連論文リスト
- Revisiting Automatic Data Curation for Vision Foundation Models in Digital Pathology [41.34847597178388]
視覚基盤モデル(FM)は、全スライディング画像から抽出された高度に異質なタイルの組織学的特徴を表現することを学ぶ。
タイルレベルでの教師なし自動データキュレーションの可能性について検討し,3億5000万個のタイルを考慮に入れた。
論文 参考訳(メタデータ) (2025-03-24T14:23:48Z) - On the importance of local and global feature learning for automated measurable residual disease detection in flow cytometry data [4.550634499956126]
本稿では,フロー(FCM)データにおけるMRD検出のための様々な深層学習手法について検討する。
本稿では,現在最先端(SOTA)モデルへの2つの適応を提案する。
コントリビューションには、SOTAモデルの拡張、公開データセットのパフォーマンス向上、実験室間の一般化の改善などが含まれています。
論文 参考訳(メタデータ) (2024-11-23T18:15:34Z) - Masked Clinical Modelling: A Framework for Synthetic and Augmented Survival Data Generation [1.7769033811751995]
本稿では,マスク付き言語モデリングに触発されたMCM(Masked Clinical Modelling)について紹介する。
MCMはデータ合成と条件付きデータ拡張の両方のために設計されている。
我々は,このプロトタイプをCox Proportional Hazardsモデルを用いてWHAS500データセット上で評価する。
論文 参考訳(メタデータ) (2024-10-22T08:38:46Z) - GenBench: A Benchmarking Suite for Systematic Evaluation of Genomic Foundation Models [56.63218531256961]
我々はGenomic Foundation Modelsの有効性を評価するためのベンチマークスイートであるGenBenchを紹介する。
GenBenchはモジュラーで拡張可能なフレームワークを提供し、様々な最先端の方法論をカプセル化している。
本稿では,タスク固有性能におけるモデルアーキテクチャとデータセット特性の相互作用のニュアンス解析を行う。
論文 参考訳(メタデータ) (2024-06-01T08:01:05Z) - ArSDM: Colonoscopy Images Synthesis with Adaptive Refinement Semantic
Diffusion Models [69.9178140563928]
大腸内視鏡検査は臨床診断や治療に不可欠である。
注釈付きデータの不足は、既存の手法の有効性と一般化を制限する。
本稿では, 下流作業に有用な大腸内視鏡画像を生成するために, 適応Refinement Semantic Diffusion Model (ArSDM)を提案する。
論文 参考訳(メタデータ) (2023-09-03T07:55:46Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - PyMAF-X: Towards Well-aligned Full-body Model Regression from Monocular
Images [60.33197938330409]
PyMAF-Xは、モノクロ画像からパラメトリックフルボディモデルを復元するための回帰ベースのアプローチである。
PyMAFとPyMAF-Xは、メッシュイメージアライメントを効果的に改善し、新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-07-13T17:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。