論文の概要: Lamps: Learning Anatomy from Multiple Perspectives via Self-supervision in Chest Radiographs
- arxiv url: http://arxiv.org/abs/2512.22872v2
- Date: Fri, 02 Jan 2026 10:52:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 13:15:27.588853
- Title: Lamps: Learning Anatomy from Multiple Perspectives via Self-supervision in Chest Radiographs
- Title(参考訳): ランプ:胸部X線写真における自己監督による多視点からの学習解剖学
- Authors: Ziyu Zhou, Haozhe Luo, Mohammad Reza Hosseinzadeh Taher, Jiaxuan Pang, Xiaowei Ding, Michael B. Gotway, Jianming Liang,
- Abstract要約: 我々は,大規模胸部X線写真を用いて,複数の視点から学習解剖学(Lamps)を構築した。
微調整および創発的特性分析によって評価された10個のデータセットにわたる実験は、ランプの優れた堅牢性、伝達性、臨床ポテンシャルを示している。
- 参考スコア(独自算出の注目度): 11.1577654135003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models have been successful in natural language processing and computer vision because they are capable of capturing the underlying structures (foundation) of natural languages. However, in medical imaging, the key foundation lies in human anatomy, as these images directly represent the internal structures of the body, reflecting the consistency, coherence, and hierarchy of human anatomy. Yet, existing self-supervised learning (SSL) methods often overlook these perspectives, limiting their ability to effectively learn anatomical features. To overcome the limitation, we built Lamps (learning anatomy from multiple perspectives via self-supervision) pre-trained on large-scale chest radiographs by harmoniously utilizing the consistency, coherence, and hierarchy of human anatomy as the supervision signal. Extensive experiments across 10 datasets evaluated through fine-tuning and emergent property analysis demonstrate Lamps' superior robustness, transferability, and clinical potential when compared to 10 baseline models. By learning from multiple perspectives, Lamps presents a unique opportunity for foundation models to develop meaningful, robust representations that are aligned with the structure of human anatomy.
- Abstract(参考訳): 基礎モデルは自然言語の基盤構造(基礎)を捉えることができるため、自然言語処理やコンピュータビジョンで成功している。
しかし、医用画像では、これらの画像は人体の内部構造を直接表現し、人間の解剖の一貫性、一貫性、階層性を反映している。
しかし、既存の自己教師付き学習(SSL)メソッドは、しばしばこれらの視点を見落とし、解剖学的特徴を効果的に学習する能力を制限する。
この制限を克服するため,大規模胸部X線写真で事前訓練したラムス(複数視点から学習解剖学)を,ヒト解剖学の一貫性,一貫性,階層性を監視信号として調和的に活用して構築した。
微調整および創発的特性分析によって評価された10のデータセットにわたる広範囲な実験は、10のベースラインモデルと比較してランプスの優れた堅牢性、伝達性、臨床ポテンシャルを示している。
複数の視点から学ぶことで、ラムスは、人間の解剖学の構造に整合した有意義で堅牢な表現を開発するための基礎モデルにユニークな機会を与える。
関連論文リスト
- CheXWorld: Exploring Image World Modeling for Radiograph Representation Learning [76.98039909663756]
我々は,放射線画像の自己教師型世界モデルに向けた最初の取り組みであるCheXWorldを紹介する。
本研究は,放射線科医に必要な医学知識の3つの側面を同時にモデル化する統合的枠組みの開発である。
論文 参考訳(メタデータ) (2025-04-18T17:50:43Z) - Language-Guided Trajectory Traversal in Disentangled Stable Diffusion Latent Space for Factorized Medical Image Generation [0.8397730500554048]
医用画像データセットに微調整を施した事前学習型視覚言語基礎モデルの能力について, 潜時無拘束化を行うための第1報を提示する。
言語誘導の安定拡散は、本質的に画像生成のキー属性を分解することを学ぶことを実証する。
生成モデルの潜在空間軌跡を識別し,分離し,操作するための枠組みを考案し,医用画像合成の精密制御を容易にする。
論文 参考訳(メタデータ) (2025-03-30T23:15:52Z) - Representing Part-Whole Hierarchies in Foundation Models by Learning Localizability, Composability, and Decomposability from Anatomy via Self-Supervision [7.869873154804936]
我々はAdam[79]を拡張する新しい自己教師型学習フレームワークであるAdam-v2を紹介します。
Adam-v2は3つのキーブランチを通じて学習目標に全階層を明示的に組み込んでいる。
ゼロショット、少数ショット転送、フル微調整設定において、Adam-v2の優れたパフォーマンスを示す11のベースラインと比較して、10タスクにわたる実験結果が得られた。
論文 参考訳(メタデータ) (2024-04-24T06:02:59Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Towards Foundation Models Learned from Anatomy in Medical Imaging via
Self-Supervision [8.84494874768244]
我々は,人間の解剖学に基づいて意識的,目的的に発達した医用画像の基礎モデルを提案する。
我々は,人間の解剖学の階層的性質を生かした,新たな自己教師型学習(SSL)戦略を考案した。
論文 参考訳(メタデータ) (2023-09-27T01:53:45Z) - Clinically Plausible Pathology-Anatomy Disentanglement in Patient Brain
MRI with Structured Variational Priors [11.74918328561702]
脳MRIにおける主観的解剖学から疾患の観測可能な証拠を正確に遠ざけるための階層的構造変化推論モデルを提案する。
フレキシブルで部分的に自己回帰的な先行モデルでは、MRIの解剖学的要因と病理学的要因の間に通常存在する微妙できめ細かな依存関係に対処する。
論文 参考訳(メタデータ) (2022-11-15T00:53:00Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - LEAP: Learning Articulated Occupancy of People [56.35797895609303]
我々は、人体の新たな神経占有表現であるleap(learning articulated occupancy of people)を紹介する。
骨変換の集合と空間内の問合せ点が与えられると、leapはまずクエリポイントを学習線形ブレンドスキン(lbs)関数を介して正準空間にマッピングする。
LEAPは、正則空間における正確な同一性およびポーズ依存変形をモデル化する占有ネットワークを介して、占有値を効率的にクエリする。
論文 参考訳(メタデータ) (2021-04-14T13:41:56Z) - Learning Semantics-enriched Representation via Self-discovery,
Self-classification, and Self-restoration [12.609383051645887]
医用画像下の解剖学の自己発見、自己分類、自己復元により、セマンティックに富んだ視覚表現を学ぶために、深層モデルを訓練する。
セマンティック・ジェネシス(Semantic Genesis)は、6つの異なる目標タスクにおいて、自己監督または完全な監督によって、一般に利用可能なすべての事前訓練されたモデルで検証する。
実験の結果,セマンティック・ジェネシスは2次元画像ネットワークを用いたデファクト・トランスファー・ラーニングと同様に,その3次元の全てをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T10:36:10Z) - DeepRetinotopy: Predicting the Functional Organization of Human Visual
Cortex from Structural MRI Data using Geometric Deep Learning [125.99533416395765]
我々は,脳機能と解剖学の複雑な関係を構造的および機能的MRIデータから学習するために,大脳皮質の構造を活用できるディープラーニングモデルを開発した。
我々のモデルは解剖学的特性だけで人間の視覚野の機能的構造を予測することができ、また個人間でのニュアンスの変化を予測することができた。
論文 参考訳(メタデータ) (2020-05-26T04:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。