論文の概要: FeSViBS: Federated Split Learning of Vision Transformer with Block
Sampling
- arxiv url: http://arxiv.org/abs/2306.14638v1
- Date: Mon, 26 Jun 2023 12:18:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 13:48:12.378241
- Title: FeSViBS: Federated Split Learning of Vision Transformer with Block
Sampling
- Title(参考訳): FeSViBS:ブロックサンプリングを用いた視覚変換器のフェデレーション分割学習
- Authors: Faris Almalik, Naif Alkhunaizi, Ibrahim Almakky, and Karthik
Nandakumar
- Abstract要約: データ不足は、重要な医療アプリケーションにおける強力な機械学習モデルの学習を妨げる重要な障害である。
ブロックサンプリングを用いたビジョン変換器のフェデレート・スプリット学習(Federated Split Learning)と呼ばれる医用画像分類タスクのためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.132785513173261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data scarcity is a significant obstacle hindering the learning of powerful
machine learning models in critical healthcare applications. Data-sharing
mechanisms among multiple entities (e.g., hospitals) can accelerate model
training and yield more accurate predictions. Recently, approaches such as
Federated Learning (FL) and Split Learning (SL) have facilitated collaboration
without the need to exchange private data. In this work, we propose a framework
for medical imaging classification tasks called Federated Split learning of
Vision transformer with Block Sampling (FeSViBS). The FeSViBS framework builds
upon the existing federated split vision transformer and introduces a block
sampling module, which leverages intermediate features extracted by the Vision
Transformer (ViT) at the server. This is achieved by sampling features (patch
tokens) from an intermediate transformer block and distilling their information
content into a pseudo class token before passing them back to the client. These
pseudo class tokens serve as an effective feature augmentation strategy and
enhances the generalizability of the learned model. We demonstrate the utility
of our proposed method compared to other SL and FL approaches on three publicly
available medical imaging datasets: HAM1000, BloodMNIST, and Fed-ISIC2019,
under both IID and non-IID settings. Code:
https://github.com/faresmalik/FeSViBS
- Abstract(参考訳): データ不足は、重要な医療アプリケーションにおける強力な機械学習モデルの学習を妨げる重要な障害である。
複数のエンティティ(例えば病院)間のデータ共有メカニズムは、モデルのトレーニングを加速し、より正確な予測をもたらす。
近年,federated learning(fl)やslit learning(sl)といったアプローチが,プライベートデータの交換を必要とせずにコラボレーションを促進するようになっている。
本研究では,Federated Split Learning of Vision transformer with Block Smpling (FeSViBS) と呼ばれる医用画像分類タスクのためのフレームワークを提案する。
FeSViBSフレームワークは、既存のフェデレートされた分割視覚変換器の上に構築され、サーバでViT(Vision Transformer)によって抽出された中間機能を活用するブロックサンプリングモジュールが導入された。
これは中間トランスブロックから特徴(パッチトークン)をサンプリングし、それらの情報内容を擬似クラストークンに蒸留してクライアントに渡すことで実現される。
これらの擬似クラストークンは効果的な機能拡張戦略となり、学習モデルの一般化性を高める。
IIDおよび非IID設定下で,HAM1000,BloodMNIST,Fed-ISIC2019の3つの医用画像データセットを用いた他のSLおよびFLアプローチと比較して,提案手法の有用性を実証した。
コード:https://github.com/faresmalik/FeSViBS
関連論文リスト
- Multi-Label Plant Species Classification with Self-Supervised Vision Transformers [0.0]
植物CLEF 2024 コンペティションのための自己教師型ビジョントランスフォーマ (DINOv2) を用いた移動学習手法を提案する。
大規模データセットの計算課題に対処するために、分散データ処理にSparkを使用します。
本研究は,複数ラベル画像分類タスクにおいて,転送学習と高度なデータ処理技術を組み合わせることの有効性を示す。
論文 参考訳(メタデータ) (2024-07-08T18:07:33Z) - Heterogeneous Federated Learning with Splited Language Model [22.65325348176366]
フェデレート・スプリット・ラーニング(FSL)は、実際には有望な分散学習パラダイムである。
本稿では,前訓練画像変換器(PIT)をFedVと呼ばれる初期モデルとして利用し,トレーニングプロセスの高速化とモデルロバスト性の向上を図る。
我々は、実世界のデータセット、異なる部分的デバイス参加、異種データ分割におけるPITを用いたFSL手法の体系的評価を初めて行った。
論文 参考訳(メタデータ) (2024-03-24T07:33:08Z) - Freeze the backbones: A Parameter-Efficient Contrastive Approach to
Robust Medical Vision-Language Pre-training [15.790435273150083]
本稿では,事前に訓練した画像やテキストエンコーダの医療知識を凍結保存して保存するバックボーン非依存型適応フレームワークを提案する。
当社のフレームワークは,既存の事前トレーニングアプローチと比較して,トレーニング可能なパラメータを90%以上削減しながら,競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-01-02T12:14:41Z) - SwinMM: Masked Multi-view with Swin Transformers for 3D Medical Image
Segmentation [32.092182889440814]
医用画像解析のための新しいマルチビューパイプラインであるSwin Transformers (SwinMM) を用いたMasked Multi-viewを提案する。
トレーニング前段階では,マスク付きマルチビュー観測を同時にトレーニングするために考案されたマスク付きマルチビューエンコーダをデプロイする。
新しいタスクは、様々な視点から予測間の一貫性を活かし、隠れた多視点情報の抽出を可能にする。
論文 参考訳(メタデータ) (2023-07-24T08:06:46Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Zero-Shot Learning for Visual Recognition [55.65879596326147]
本稿では,Federated Zero-Shot Learning FedZSLフレームワークを提案する。
FedZSLは、エッジデバイス上の分散データから中心的なモデルを学ぶ。
FedZSLの有効性と堅牢性は、3つのゼロショットベンチマークデータセットで実施された広範な実験によって実証された。
論文 参考訳(メタデータ) (2022-09-05T14:49:34Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - MISSU: 3D Medical Image Segmentation via Self-distilling TransUNet [55.16833099336073]
医用画像セグメンテーションのためのトランスフォーマーベースUNetを提案する。
グローバルな意味情報と局所的な空間的詳細特徴を同時に学習する。
MISSUは従来の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2022-06-02T07:38:53Z) - ViTAE: Vision Transformer Advanced by Exploring Intrinsic Inductive Bias [76.16156833138038]
コンボリューション, ie, ViTAEから内在性IBを探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
各トランス層では、ViTAEはマルチヘッド自己保持モジュールと平行な畳み込みブロックを持ち、その特徴は融合されフィードフォワードネットワークに供給される。
論文 参考訳(メタデータ) (2021-06-07T05:31:06Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - FedCVT: Semi-supervised Vertical Federated Learning with Cross-view Training [9.638604434238882]
フェデレート・クロスビュー・トレーニング(Federated Cross-view Training, FedCVT)は、縦型フェデレーション学習モデルの性能を向上させる半教師付き学習手法である。
FedCVTは独自のデータとモデルパラメータを共有する必要はなく、データのプライバシを保存する。
論文 参考訳(メタデータ) (2020-08-25T06:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。