論文の概要: SepVAE: a contrastive VAE to separate pathological patterns from healthy
ones
- arxiv url: http://arxiv.org/abs/2307.06206v1
- Date: Wed, 12 Jul 2023 14:52:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 12:40:30.532857
- Title: SepVAE: a contrastive VAE to separate pathological patterns from healthy
ones
- Title(参考訳): SepVAE : 健康なものから病理パターンを分離するための対照的なVAE
- Authors: Robin Louiset, Edouard Duchesnay, Antoine Grigis, Benoit Dufumier,
Pietro Gori
- Abstract要約: コントラスト分析VAE(Contrastive Analysis VAE)は、背景データセット(BG)と対象データセット(TG)の共通要因を分離することを目的とした変分自動エンコーダ(VAE)のファミリーである。
3つの医療応用と自然画像データセット(CelebA)における従来のCA-VAEs法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.3008314626990964
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Contrastive Analysis VAE (CA-VAEs) is a family of Variational auto-encoders
(VAEs) that aims at separating the common factors of variation between a
background dataset (BG) (i.e., healthy subjects) and a target dataset (TG)
(i.e., patients) from the ones that only exist in the target dataset. To do so,
these methods separate the latent space into a set of salient features (i.e.,
proper to the target dataset) and a set of common features (i.e., exist in both
datasets). Currently, all models fail to prevent the sharing of information
between latent spaces effectively and to capture all salient factors of
variation. To this end, we introduce two crucial regularization losses: a
disentangling term between common and salient representations and a
classification term between background and target samples in the salient space.
We show a better performance than previous CA-VAEs methods on three medical
applications and a natural images dataset (CelebA). Code and datasets are
available on GitHub https://github.com/neurospin-projects/2023_rlouiset_sepvae.
- Abstract(参考訳): コントラスト分析vae(ca-vaes)は、背景データセット(bg)と対象データセット(tg)との間の変動の共通要因を、対象データセットにのみ存在するものから分離することを目的とした、変分オートエンコーダ(vaes)のファミリーである。
そのために、これらのメソッドは、潜在空間を一連の有能な特徴(すなわち、ターゲットデータセットに適切な)と共通の特徴(すなわち、両方のデータセットに存在する)に分離する。
現在、全てのモデルは潜在空間間の情報の共有を効果的に防ぎ、変動の全ての有意な要因を捉えることができない。
そこで本研究では,共通表現と有意表現の混同項と,有意空間の背景サンプルと対象サンプルの分類項の2つの重要な正規化損失を導入する。
3つの医療応用と自然画像データセット(CelebA)において,従来のCA-VAEs法よりも優れた性能を示す。
コードとデータセットはgithub https://github.com/neurospin-projects/2023_rlouiset_sepvaeで入手できる。
関連論文リスト
- Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Domain Invariant Model with Graph Convolutional Network for Mammogram
Classification [49.691629817104925]
グラフ畳み込みネットワークを用いたドメイン不変モデル(DIM-GCN)を提案する。
まず,潜伏変数を病原性その他の疾患関連部位に明示的に分解するベイズネットワークを提案する。
マクロな特徴をよりよく捉えるために、我々は、GCN(Graph Convolutional Network)を介して、観察された臨床特性を再構築の目的として活用する。
論文 参考訳(メタデータ) (2022-04-21T08:23:44Z) - Moment Matching Deep Contrastive Latent Variable Models [11.602089225841631]
対照的に、マシンラーニングの実践者は、バックグラウンドデータセットと比較して、ターゲットデータセットに富むパターンを見つけることに興味を持っている。
本稿では,CA 用 VAE (MM-cVAE) を改良したモーメントマッチング型 VAE (MM-cVAE) を提案する。
3つの困難なCAタスクにおいて、我々の手法は、定性的かつ定量的な測定値のセットにおいて、従来の最先端技術よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-02-21T22:27:30Z) - Identifiable Variational Autoencoders via Sparse Decoding [37.30831737046145]
高次元データに基づく教師なし表現学習のための深層生成モデルであるSparse VAEを開発した。
まず、Sparse VAEが識別可能であることを示し、モデルから引き出されたデータを考えると、一意に最適な要素の集合が存在する。
シミュレーションデータと実データの両方を用いて,Sparse VAEを実証研究する。
論文 参考訳(メタデータ) (2021-10-20T22:11:33Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - Capturing patterns of variation unique to a specific dataset [68.8204255655161]
対象データセットの1つ以上の比較データセットに対する低次元表現を同定するチューニングフリー手法を提案する。
複数の実験で、単一のバックグラウンドデータセットを持つUCAが、様々なチューニングパラメータを持つcPCAと同じような結果を達成することを示しました。
論文 参考訳(メタデータ) (2021-04-16T15:07:32Z) - DecAug: Augmenting HOI Detection via Decomposition [54.65572599920679]
現在のアルゴリズムでは、データセット内のトレーニングサンプルやカテゴリの不均衡が不足している。
本稿では,HOI検出のためのDECAugと呼ばれる効率的かつ効率的なデータ拡張手法を提案する。
実験の結果,V-COCOおよびHICODETデータセットの3.3mAPと1.6mAPの改善が得られた。
論文 参考訳(メタデータ) (2020-10-02T13:59:05Z) - Cross-Domain Segmentation with Adversarial Loss and Covariate Shift for
Biomedical Imaging [2.1204495827342438]
本論文は,異なるモダリティから異なるパターンと共有パターンをカプセル化することにより,ドメイン間データから堅牢な表現を学習できる新しいモデルの実現を目的とする。
正常な臨床試験で得られたCTおよびMRI肝データに対する試験は、提案したモデルが他のすべてのベースラインを大きなマージンで上回っていることを示している。
論文 参考訳(メタデータ) (2020-06-08T07:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。