論文の概要: US-JEPA: A Joint Embedding Predictive Architecture for Medical Ultrasound
- arxiv url: http://arxiv.org/abs/2602.19322v1
- Date: Sun, 22 Feb 2026 19:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.58682
- Title: US-JEPA: A Joint Embedding Predictive Architecture for Medical Ultrasound
- Title(参考訳): US-JEPA:医療超音波の予測アーキテクチャ
- Authors: Ashwath Radhachandran, Vedrana Ivezić, Shreeram Athreya, Ronit Anilkumar, Corey W. Arnold, William Speier,
- Abstract要約: 超音波(US)イメージングは、本質的にノイズの多い取得プロセスのため、表現学習に固有の課題を提起する。
JEPA(Joint-Embedding Predictive Architectures)は、生のピクセルではなく、マスク付きの潜在表現を予測する。
我々は,SALT(Static-Teacher Asymmetric Latent Training)を目標とした自己教師型フレームワークであるUS-JEPAを提案する。
- 参考スコア(独自算出の注目度): 5.216814358105614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasound (US) imaging poses unique challenges for representation learning due to its inherently noisy acquisition process. The low signal-to-noise ratio and stochastic speckle patterns hinder standard self-supervised learning methods relying on a pixel-level reconstruction objective. Joint-Embedding Predictive Architectures (JEPAs) address this drawback by predicting masked latent representations rather than raw pixels. However, standard approaches depend on hyperparameter-brittle and computationally expensive online teachers updated via exponential moving average. We propose US-JEPA, a self-supervised framework that adopts the Static-teacher Asymmetric Latent Training (SALT) objective. By using a frozen, domain-specific teacher to provide stable latent targets, US-JEPA decouples student-teacher optimization and pushes the student to expand upon the semantic priors of the teacher. In addition, we provide the first rigorous comparison of all publicly available state-of-the-art ultrasound foundation models on UltraBench, a public dataset benchmark spanning multiple organs and pathological conditions. Under linear probing for diverse classification tasks, US-JEPA achieves performance competitive with or superior to domain-specific and universal vision foundation model baselines. Our results demonstrate that masked latent prediction provides a stable and efficient path toward robust ultrasound representations.
- Abstract(参考訳): 超音波(US)イメージングは、本質的にノイズの多い取得プロセスのため、表現学習に固有の課題を提起する。
低信号対雑音比と確率スペックルパターンは、画素レベルの再構成目標に依存する標準的な自己教師付き学習手法を妨げている。
JEPA(Joint-Embedding Predictive Architectures)は、生のピクセルではなく、マスク付きの潜在表現を予測することで、この欠点に対処する。
しかし、標準的なアプローチはハイパーパラメータの脆さと計算コストの高いオンライン教師に依存し、指数的な移動平均によって更新される。
我々は,SALT(Static-Teacher Asymmetric Latent Training)を目標とした自己教師型フレームワークであるUS-JEPAを提案する。
凍結したドメイン固有の教師を用いて安定した潜伏目標を提供することにより、US-JEPAは生徒と教師の最適化を分離し、教師のセマンティックな優先事項に拡張するよう学生に促す。
さらに,複数の臓器と病理状態にまたがる公開データセットであるUltraBench上で,術中超音波基礎モデルに関する厳密な比較を行った。
多様な分類タスクに対する線形探索の下で、US-JEPAは、ドメイン固有および普遍的ビジョン基盤モデルベースラインと競合する、または優れた性能を達成する。
以上の結果から,マスク付き潜伏予測は頑健な超音波表現への安定かつ効率的な経路を提供することが示された。
関連論文リスト
- DSeq-JEPA: Discriminative Sequential Joint-Embedding Predictive Architecture [34.31498256147088]
DSeq-JEPAは、JEPAスタイルの潜伏予測とGPTスタイルのシーケンシャル推論を統合することで、予測的および自己回帰的自己教師型学習を橋渡しする。
DSeq-JEPAは、I-JEPA変種よりも差別的で一般化可能な表現に一貫して焦点を合わせている。
論文 参考訳(メタデータ) (2025-11-21T16:18:50Z) - Joint Embeddings Go Temporal [5.2741154046624255]
JEPA(Joint Emmbedding Predictive Architectures)は、潜在分野における自己教師型学習の実現を目的として導入されたアーキテクチャである。
時系列JEPA (TS-JEPA) は、時系列表現学習に特化したアーキテクチャである。
TS-JEPAは、異なる標準データセット上で、現在の最先端のベースラインに適合または超えることができることを示す。
論文 参考訳(メタデータ) (2025-09-29T19:57:37Z) - Rethinking JEPA: Compute-Efficient Video SSL with Frozen Teachers [37.91964614027141]
ビデオ共同埋め込み予測アーキテクチャ(V-JEPA)は,指数移動平均(EMA)更新型教師を用いて,潜伏空間内のマスキング領域を予測することで,市販のビデオ表現の一般化を学習する。
マスク付き潜伏予測を再検討し,凍結した教師が満足することを示す。
生徒の質は、教師の質に対して著しく堅牢であることに気付きました。
論文 参考訳(メタデータ) (2025-09-29T05:55:17Z) - VRS-UIE: Value-Driven Reordering Scanning for Underwater Image Enhancement [104.78586859995333]
状態空間モデル(SSM)は、線形複雑性と大域的受容場のために、視覚タスクの有望なバックボーンとして登場した。
大型で均質だが無意味な海洋背景の優位性は、希少で価値ある標的の特徴表現応答を希薄にすることができる。
水中画像強調(UIE)のための新しい値駆動リダクションスキャンフレームワークを提案する。
本フレームワークは, 水バイアスを効果的に抑制し, 構造や色彩の忠実さを保ち, 優れた向上性能(WMambaを平均0.89dB超える)を実現する。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - Directional Gradient Projection for Robust Fine-Tuning of Foundation Models [25.04763038570959]
ディディショナル・グラディエント・プロジェクション(DiGraP)は、グラデーションからブリッジの正規化や多目的最適化に至るまでの方向性情報を階層的に学習可能な手法である。
まず,画像分類による視覚質問回答 (VQA) ベンチマークの分析により,一様・多モードのギャップを埋める。
実験結果から,DiGraPは画像分類やVQAタスクにおいて,識別的,生成的バックボーンで既存のベースラインを一貫して上回ることがわかった。
論文 参考訳(メタデータ) (2025-02-21T19:31:55Z) - ACT-JEPA: Novel Joint-Embedding Predictive Architecture for Efficient Policy Representation Learning [90.41852663775086]
ACT-JEPAは模倣学習と自己教師型学習を統合する新しいアーキテクチャである。
我々はアクションシーケンスと抽象的な観察シーケンスを予測するポリシーを訓練する。
実験の結果,ACT-JEPAは時間環境の動的学習によって表現の質を向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-24T16:41:41Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Joint Embedding Predictive Architectures Focus on Slow Features [56.393060086442006]
JEPA(Joint Embedding Predictive Architectures)は、再構築不要の代替手段を提供する。
我々は、VICRegとSimCLRで訓練されたJEPAのパフォーマンスを、報酬にアクセスできることなく完全にオフラインで分析する。
JEPAメソッドはステップ毎にノイズが変わるが、ノイズが修正されるとフェールする。
論文 参考訳(メタデータ) (2022-11-20T00:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。