論文の概要: Representation Learning Through Latent Canonicalizations
- arxiv url: http://arxiv.org/abs/2002.11829v1
- Date: Wed, 26 Feb 2020 22:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 14:23:54.424361
- Title: Representation Learning Through Latent Canonicalizations
- Title(参考訳): 潜在正準化による表現学習
- Authors: Or Litany, Ari Morcos, Srinath Sridhar, Leonidas Guibas, Judy Hoffman
- Abstract要約: 我々は,限られた新しい監督手法を用いて,対象領域に一般化する大規模な注釈付きデータソースの表現を学習しようと試みている。
我々は、明示的な潜在的絡み合いの要求を緩和し、代わりに変動の個々の要因の線形性を奨励する。
提案手法は,多数の教師付きベースラインと比較して,同じ対象領域に一般化するために必要な観測回数を減らすのに有効であることを示す。
- 参考スコア(独自算出の注目度): 24.136856168381502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We seek to learn a representation on a large annotated data source that
generalizes to a target domain using limited new supervision. Many prior
approaches to this problem have focused on learning "disentangled"
representations so that as individual factors vary in a new domain, only a
portion of the representation need be updated. In this work, we seek the
generalization power of disentangled representations, but relax the requirement
of explicit latent disentanglement and instead encourage linearity of
individual factors of variation by requiring them to be manipulable by learned
linear transformations. We dub these transformations latent canonicalizers, as
they aim to modify the value of a factor to a pre-determined (but arbitrary)
canonical value (e.g., recoloring the image foreground to black). Assuming a
source domain with access to meta-labels specifying the factors of variation
within an image, we demonstrate experimentally that our method helps reduce the
number of observations needed to generalize to a similar target domain when
compared to a number of supervised baselines.
- Abstract(参考訳): 我々は,限られた新しい監督手法を用いて,対象領域に一般化する大規模な注釈付きデータソースの表現を学習する。
この問題に対する多くの先行的なアプローチは、新しいドメインで個々の要因が変わるため、表現の一部だけを更新する必要があるように、"行き詰まった"表現を学ぶことに焦点を合わせてきた。
本研究では,不等角表現の一般化力を求める一方で,明示的潜在性不等角化の要件を緩和し,学習線形変換によって操作可能となるよう要求することで,変動の個々の因子の線形性を促進する。
これらの変換を潜伏カノニカライザにダビングし、あらかじめ決められた(しかし任意の)カノニカル値(例えば、前景を黒に塗り替える)にファクタの値を変更することを目的としています。
画像内の変化の要因を特定するメタラベルにアクセスできるソースドメインを仮定すると,本手法は,多数の教師付きベースラインと比較して,類似のターゲットドメインに一般化するために必要な観測回数を減らすのに有効であることを示す。
関連論文リスト
- Boundless Across Domains: A New Paradigm of Adaptive Feature and Cross-Attention for Domain Generalization in Medical Image Segmentation [1.93061220186624]
ドメイン不変表現学習は、ドメイン一般化の強力な方法である。
従来のアプローチでは、高い計算要求、トレーニングの不安定性、高次元データによる限られた有効性といった課題に直面していた。
本研究では,分布空間を探索しながら分布外サンプルを生成する適応的特徴ブレンディング(AFB)手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T12:06:24Z) - Cross-Domain Policy Adaptation by Capturing Representation Mismatch [53.087413751430255]
強化学習(RL)において、動的に異なる領域に移行できる効果的な政策を学ぶことが不可欠である。
本稿では、ソースドメインとターゲットドメインとの間に動的ミスマッチが存在する場合の動的適応設定について考察する。
対象領域でのみ表現学習を行い、ソース領域からの遷移における表現偏差を測定する。
論文 参考訳(メタデータ) (2024-05-24T09:06:12Z) - BayeSeg: Bayesian Modeling for Medical Image Segmentation with
Interpretable Generalizability [15.410162313242958]
医用画像分割のためのモデル一般化性を高めるための解釈可能なベイズフレームワーク(BayeSeg)を提案する。
具体的には、まず、画像を空間的関連変数と空間的変動変数に分解し、階層的ベイズ事前を割り当て、それぞれドメインの安定な形状とドメイン固有の外観情報をモデル化するよう明示的に強制する。
最後に、これらの説明可能な変数の後方分布を推測する変分ベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2023-03-03T04:48:37Z) - An Image is Worth More Than a Thousand Words: Towards Disentanglement in
the Wild [34.505472771669744]
教師なしの絡み合いは、モデルとデータに誘導的バイアスを伴わずに理論的に不可能であることが示されている。
本稿では,部分的にラベル付けされた要素の集合を分離する手法を提案するとともに,残余因子の相補的集合を分離する手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T17:54:24Z) - Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Continual Adaptation of Visual Representations via Domain Randomization
and Meta-learning [21.50683576864347]
ほとんどの標準的な学習アプローチは、異なる性質のサンプルを逐次訓練すると、漂流しにくい脆弱なモデルにつながる。
忘れることに対して本質的により堅牢なモデルを学ぶ方法の1つは、ドメインのランダム化である。
正規化子は、現在のドメインから異なる"副次的"メタドメインへのモデル転送に関連する損失を明示的に罰するメタラーニング戦略を考案する。
論文 参考訳(メタデータ) (2020-12-08T09:54:51Z) - Few-shot Image Generation with Elastic Weight Consolidation [53.556446614013105]
少ないショット画像生成は、利用可能なトレーニング例がほとんどなく、与えられたドメインのより多くのデータを生成することを目指している。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
我々は,異なる対象領域の高品質な結果を生成することにより,アルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-04T18:57:13Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - FDA: Fourier Domain Adaptation for Semantic Segmentation [82.4963423086097]
本稿では,教師なし領域適応の簡易な手法について述べる。一方の低周波スペクトルを他方と交換することにより,音源と対象分布の相違を低減できる。
本手法を意味的セグメンテーション(semantic segmentation, 意味的セグメンテーション, 意味的セグメンテーション)で説明する。
以上の結果から,より高度な手法が学習に苦しむデータにおいて,単純な手順であってもニュアンス変動を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-04-11T22:20:48Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。