論文の概要: Federated Self-Supervised Learning for One-Shot Cross-Modal and Cross-Imaging Technique Segmentation
- arxiv url: http://arxiv.org/abs/2503.23507v1
- Date: Sun, 30 Mar 2025 16:40:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.155447
- Title: Federated Self-Supervised Learning for One-Shot Cross-Modal and Cross-Imaging Technique Segmentation
- Title(参考訳): ワンショット・クロスモーダル・クロス・イメージング技術セグメンテーションのためのフェデレーション自己監督型学習
- Authors: Siladittya Manna, Suresh Das, Sayantari Ghosh, Saumik Bhattacharya,
- Abstract要約: 我々は、よりデータ・スカースなシナリオを表す、フェデレーション付きセルフ教師付きワンショットセグメンテーションタスクについて検討する。
我々の知る限りでは、この研究は、フェデレートされた学習領域において、自己監督された数発のセグメンテーションタスクを試みる最初の試みである。
- 参考スコア(独自算出の注目度): 3.624865764637671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized federated learning enables learning of data representations from multiple sources without compromising the privacy of the clients. In applications like medical image segmentation, where obtaining a large annotated dataset from a single source is a distressing problem, federated self-supervised learning can provide some solace. In this work, we push the limits further by exploring a federated self-supervised one-shot segmentation task representing a more data-scarce scenario. We adopt a pre-existing self-supervised few-shot segmentation framework CoWPro and adapt it to the federated learning scenario. To the best of our knowledge, this work is the first to attempt a self-supervised few-shot segmentation task in the federated learning domain. Moreover, we consider the clients to be constituted of data from different modalities and imaging techniques like MR or CT, which makes the problem even harder. Additionally, we reinforce and improve the baseline CoWPro method using a fused dice loss which shows considerable improvement in performance over the baseline CoWPro. Finally, we evaluate this novel framework on a completely unseen held-out part of the local client dataset. We observe that the proposed framework can achieve performance at par or better than the FedAvg version of the CoWPro framework on the held-out validation dataset.
- Abstract(参考訳): 分散フェデレーション学習は、クライアントのプライバシを損なうことなく、複数のソースからデータ表現を学習することを可能にする。
医療画像のセグメンテーションのようなアプリケーションでは、単一のソースから大きな注釈付きデータセットを取得することが厄介な問題である。
本研究では,この限界をさらに推し進めるために,よりデータ量の多いシナリオを表現した,フェデレーション付き自己監督型ワンショットセグメンテーションタスクを探索する。
我々は、既存の自己監督型少数ショットセグメンテーションフレームワークであるCoWProを採用し、それを連合学習シナリオに適用する。
我々の知る限りでは、この研究は、フェデレートされた学習領域において、自己監督された数発のセグメンテーションタスクを試みる最初の試みである。
さらに,MR や CT などの画像技術により,クライアントは異なるモダリティから得られるデータで構成されていると考え,問題をさらに困難にしている。
さらに, 融解ダイス損失を用いたベースラインCoWPro法の強化と改良を行い, ベースラインCoWProよりも性能が大幅に向上した。
最後に、この新しいフレームワークを、ローカルクライアントデータセットの完全に見えないホールトアウト部分で評価する。
提案するフレームワークは,保持された検証データセット上で,CoWProフレームワークのFedAvgバージョンよりも同等以上のパフォーマンスを実現可能であることを観察する。
関連論文リスト
- One-shot In-context Part Segmentation [97.77292483684877]
パートセグメンテーションの課題に取り組むために,One-shot In-context Part (OIParts) フレームワークを提案する。
私たちのフレームワークは、トレーニングのない、フレキシブルで、データ効率のよいパートセグメンテーションに対して、新しいアプローチを提供します。
我々は多種多様な対象カテゴリで顕著なセグメンテーション性能を達成した。
論文 参考訳(メタデータ) (2025-03-03T03:50:54Z) - Federated Foundation Models on Heterogeneous Time Series [36.229082478423585]
主な目的は、Transformerアーキテクチャ上でモデルをトレーニングするためのトークンとして共有サブシーケンスを抽出するために、ドメイン間の時系列データセットを融合することである。
本稿では,時系列基礎モデルトレーニング(FFTS)における不均一性に対処する新しいフェデレーション学習手法を提案する。
新たに学習された時系列基礎モデルは、予測、計算、異常検出を含むクロスドメイン時系列解析タスクにおいて優れた一般化能力を達成する。
論文 参考訳(メタデータ) (2024-12-12T03:38:01Z) - Coordination Failure in Cooperative Offline MARL [3.623224034411137]
オフラインデータを用いた多エージェント政策勾配における協調的障害と協調行動の役割について検討する。
解析ツールとして2プレイヤーゲームを用いることで、BRUDアルゴリズムの単純な失敗モードを実演する。
本稿では,共同動作の類似性に基づくデータセットからのサンプルの優先順位付けにより,そのような障害を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T14:51:29Z) - Few-Shot Learning for Annotation-Efficient Nucleus Instance Segmentation [50.407071700154674]
少数ショット学習(FSL)の観点から、アノテーション効率の良い核インスタンスセグメンテーションを定式化することを提案する。
我々の研究は、計算病理学の隆盛とともに、多くの完全注釈付きデータセットが一般に公開されていることに動機づけられた。
いくつかの公開データセットに対する大規模な実験は、SGFSISが他のアノテーション効率のよい学習ベースラインより優れていることを示している。
論文 参考訳(メタデータ) (2024-02-26T03:49:18Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Incremental Learning Meets Transfer Learning: Application to Multi-site
Prostate MRI Segmentation [16.50535949349874]
インクリメンタルトランスファー学習(ITL)と呼ばれる新しいマルチサイトセグメンテーションフレームワークを提案する。
ITLは、エンドツーエンドのシーケンシャルな方法で、マルチサイトデータセットからモデルを学習する。
ITLトレーニングスキームを活用することで、漸進的な学習における破滅的な問題を軽減できることを示す。
論文 参考訳(メタデータ) (2022-06-03T02:32:01Z) - Text-Based Person Search with Limited Data [66.26504077270356]
テキストベースの人物検索(TBPS)は、画像ギャラリーから対象人物を記述的なテキストクエリで検索することを目的としている。
限られたデータによってもたらされる問題に対処する2つの新しいコンポーネントを持つフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:20:47Z) - Federated Self-Supervised Contrastive Learning via Ensemble Similarity
Distillation [42.05438626702343]
本稿では,未ラベルのクライアントデータによる良好な表現空間の学習の実現可能性について検討する。
本稿では,アーキテクチャに依存しないローカルトレーニングとコミュニケーション効率のよいグローバルアグリゲーションをサポートする,自己指導型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-29T02:13:22Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。