論文の概要: PromptGate Client Adaptive Vision Language Gating for Open Set Federated Active Learning
- arxiv url: http://arxiv.org/abs/2603.07163v1
- Date: Sat, 07 Mar 2026 11:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.985499
- Title: PromptGate Client Adaptive Vision Language Gating for Open Set Federated Active Learning
- Title(参考訳): PromptGate Client Adaptive Vision Language Gating for Open Set Federated Active Learning
- Authors: Adea Nesturi, David Dueñas Gaviria, Jiajun Zeng, Shadi Albarqouni,
- Abstract要約: リアルワールドのクリニカルプールは本質的にオープンセットであり、画像アーティファクトや間違ったモダリティのような配布外ノイズを含んでいる。
標準アクティブラーニングクエリ戦略は、このノイズを情報的なサンプルと間違え、少ないアノテーション予算を無駄にします。
本稿では,オープンセットフェデレーションALのための動的VLMゲートフレームワークであるPromptGateを提案する。
- 参考スコア(独自算出の注目度): 2.6034035912370137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying medical AI across resource-constrained institutions demands data-efficient learning pipelines that respect patient privacy. Federated Learning (FL) enables collaborative medical AI without centralising data, yet real-world clinical pools are inherently open-set, containing out-of-distribution (OOD) noise such as imaging artifacts and wrong modalities. Standard Active Learning (AL) query strategies mistake this noise for informative samples, wasting scarce annotation budgets. We propose PromptGate, a dynamic VLM-gated framework for Open-Set Federated AL that purifies unlabeled pools before querying. PromptGate introduces a federated Class-Specific Context Optimization: lightweight, learnable prompt vectors that adapt a frozen BiomedCLIP backbone to local clinical domains and aggregate globally via FedAvg -- without sharing patient data. As new annotations arrive, prompts progressively sharpen the ID/OOD boundary, turning the VLM into a dynamic gatekeeper that is strategy-agnostic: a plug-and-play pre-selection module enhancing any downstream AL strategy. Experiments on distributed dermatology and breast imaging benchmarks show that while static VLM prompting degrades to 50% ID purity, PromptGate maintains $>$95% purity with 98% OOD recall.
- Abstract(参考訳): リソースに制約のある機関に医療AIを配置するには、患者のプライバシーを尊重するデータ効率の高い学習パイプラインが必要である。
フェデレートラーニング(FL)は、データを集中せずに協調的な医療AIを可能にするが、実際の臨床プールは本質的にはオープンセットであり、イメージングアーティファクトや間違ったモダリティなどのアウト・オブ・ディストリビューション(OOD)ノイズを含んでいる。
標準アクティブラーニング(AL)クエリ戦略は、このノイズを情報サンプルと間違え、少ないアノテーション予算を浪費する。
本稿では,オープンセットフェデレーションALのための動的VLMゲートフレームワークであるPromptGateを提案する。
PromptGateは、FedAvgを通じて、患者のデータを共有することなく、凍結したBiomedCLIPバックボーンをローカル臨床ドメインに適応し、グローバルに集約する軽量で学習可能なプロンプトベクターである。
新しいアノテーションが到着すると、ID/OODバウンダリを徐々にシャープし、VLMを戦略に依存しない動的ゲートキーパーに変える。
分散皮膚科および乳房画像ベンチマークの実験では、静的なVLMは50%のID純度に低下するが、PromptGateは98%のOODリコールで95%の純度を維持している。
関連論文リスト
- A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - MedForget: Hierarchy-Aware Multimodal Unlearning Testbed for Medical AI [66.0701326117134]
MedForgetは、階層型を意識したマルチモーダルなアンラーニングテストベッドで、準拠する医療AIシステムを構築する。
既存の手法は,診断性能を低下させることなく,完全かつ階層性に配慮した忘れの解決に苦慮していることを示す。
階層レベルのコンテキストをプロンプトに徐々に追加する再構成攻撃を導入する。
論文 参考訳(メタデータ) (2025-12-10T17:55:06Z) - Decoupling Clinical and Class-Agnostic Features for Reliable Few-Shot Adaptation under Shift [12.373281238541296]
医療ビジョン言語モデル(VLM)は、臨床診断支援を約束するが、分布シフトによる信頼性は、安全なデプロイメントにとって大きな関心事である。
そこで我々はDRiFtを提案する。DRiFtは機能分離フレームワークで、臨床的に関連する信号をタスク非依存のノイズから明確に分離する。
提案手法は,従来のプロンプトベースの手法に比べて,Top-1精度+11.4%,Macro-F1+3.3%向上する。
論文 参考訳(メタデータ) (2025-09-11T12:26:57Z) - OpenPath: Open-Set Active Learning for Pathology Image Classification via Pre-trained Vision-Language Models [22.494367900953645]
病理画像分類のためのオープンセット能動的学習手法OpenPathを提案する。
OpenPathは、選択されたサンプルの純度が高いため、モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2025-06-18T09:47:45Z) - Attention-based Generative Latent Replay: A Continual Learning Approach for WSI Analysis [3.6630930118966814]
全体スライド画像(WSI)分類は、計算病理学において強力なツールとして登場したが、ドメインシフトによって制約されている。
本稿では,Attention-based Generative Latent Replay Continual Learning framework (AGLR-CL) を提案する。
論文 参考訳(メタデータ) (2025-05-13T12:55:46Z) - MarvelOVD: Marrying Object Recognition and Vision-Language Models for Robust Open-Vocabulary Object Detection [107.15164718585666]
開語彙検出コンテキスト下でのVLMの偏り予測の根本原因について検討した。
私たちの観察は、非常に優れたトレーニングターゲットを生成する、単純で効果的なパラダイム、コード化されたMarvelOVDにつながります。
我々の手法は、他の最先端技術よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2024-07-31T09:23:57Z) - OpenDAS: Open-Vocabulary Domain Adaptation for 2D and 3D Segmentation [54.98688607911399]
視覚言語モデル(VLM)にドメイン固有の知識を注入するオープン語彙ドメイン適応の課題を提案する。
既存のVLM適応手法では、ベース(トレーニング)クエリのパフォーマンスが向上するが、新しいクエリ上でのVLMのオープンセット能力を維持できない。
我々のアプローチは、新しいクラスにおける元のVLMを一貫して上回るパラメータ効率の手法である。
論文 参考訳(メタデータ) (2024-05-30T15:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。