論文の概要: Distribution Estimation to Automate Transformation Policies for
Self-Supervision
- arxiv url: http://arxiv.org/abs/2111.12265v1
- Date: Wed, 24 Nov 2021 04:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 22:12:24.926864
- Title: Distribution Estimation to Automate Transformation Policies for
Self-Supervision
- Title(参考訳): 自己管理のための変換ポリシーの自動化のための分布推定
- Authors: Seunghan Yang, Debasmit Das, Simyung Chang, Sungrack Yun, Fatih
Porikli
- Abstract要約: 近年のビジュアル・セルフ・スーパービジョンでは、ラベルを変換または拡張された入力画像に割り当てることで、プリテキスト・タスクと呼ばれる模倣された分類対象が確立されている。
データセットにすでに存在する画像変換は、そのような自己教師付き表現を学習する上で、より効果的でない可能性があることが観察された。
本稿では,入力データセットに存在しない変換を自動的に検出する,生成逆ネットワークに基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 61.55875498848597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent visual self-supervision works, an imitated classification
objective, called pretext task, is established by assigning labels to
transformed or augmented input images. The goal of pretext can be predicting
what transformations are applied to the image. However, it is observed that
image transformations already present in the dataset might be less effective in
learning such self-supervised representations. Building on this observation, we
propose a framework based on generative adversarial network to automatically
find the transformations which are not present in the input dataset and thus
effective for the self-supervised learning. This automated policy allows to
estimate the transformation distribution of a dataset and also construct its
complementary distribution from which training pairs are sampled for the
pretext task. We evaluated our framework using several visual recognition
datasets to show the efficacy of our automated transformation policy.
- Abstract(参考訳): 最近の視覚自己スーパービジョン作品では、変換または拡張された入力画像にラベルを割り当てることで、プリテキストタスクと呼ばれる模倣された分類目標が確立されている。
pretextの目標は、画像にどのような変換を適用するかを予測することだ。
しかし、データセットにすでに存在する画像変換は、そのような自己教師付き表現の学習にあまり効果がない可能性がある。
そこで本研究では,入力データセットに存在しない変換を自動的に発見し,自己教師付き学習に有効とする,生成的逆ネットワークに基づく枠組みを提案する。
この自動ポリシーにより、データセットの変換分布を推定し、プリテキストタスクのためにトレーニングペアをサンプリングする補完的な分布を構築することができる。
我々は、複数のビジュアル認識データセットを用いて、自動変換ポリシーの有効性を示すために、フレームワークを評価した。
関連論文リスト
- Distill-SODA: Distilling Self-Supervised Vision Transformer for
Source-Free Open-Set Domain Adaptation in Computational Pathology [12.828728138651266]
スライド画像全体から手動の組織タイピングを減らすためには,計算病理モデルの開発が不可欠である。
本稿では,上記の課題に対処して,オープンソースフリーなオープンセットドメイン適応という現実的な設定を提案する。
提案手法は,事前学習したソースモデルをラベルなしのターゲットデータセットに適応させることに重点を置いている。
論文 参考訳(メタデータ) (2023-07-10T14:36:51Z) - Learning Explicit Object-Centric Representations with Vision
Transformers [81.38804205212425]
我々は、マスク付き自動符号化の自己超越タスクを構築し、トランスフォーマーを用いたオブジェクト中心表現学習の有効性を探求する。
複数のマルチオブジェクト・ベンチマークのセグメンテーション・メトリクスによって測定された単純なシーンを効率的に分解できることを示す。
論文 参考訳(メタデータ) (2022-10-25T16:39:49Z) - Adapting Self-Supervised Vision Transformers by Probing
Attention-Conditioned Masking Consistency [7.940705941237998]
自己教師型 ViT のための単純な2段階適応アルゴリズムである PACMAC を提案する。
私たちの単純なアプローチは、競合するメソッドよりも一貫したパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2022-06-16T14:46:10Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - Robust Training Using Natural Transformation [19.455666609149567]
画像分類アルゴリズムのロバスト性を改善するための逆学習手法であるNaTraを提案する。
クラス識別とは無関係な入力画像の属性をターゲティングし、それらの属性を操作して実世界の自然変換を模倣します。
本手法の有効性を,よく訓練されたGANから導かれる非絡み合った潜在表現を用いて実証する。
論文 参考訳(メタデータ) (2021-05-10T01:56:03Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Self-Supervised Human Activity Recognition by Augmenting Generative
Adversarial Networks [0.0]
本稿では,自己教師型タスクによるGAN(Generative Adversarial Network)の拡張手法を提案する。
提案手法では,入力ビデオフレームは異なる空間変換によってランダムに変換される。
判別器は、補助損失を導入することにより、適用された変換を予測することを奨励される。
論文 参考訳(メタデータ) (2020-08-26T18:28:17Z) - Probabilistic Spatial Transformer Networks [0.6999740786886537]
本稿では、決定論的ではなく、変換を推定する確率的拡張を提案する。
これら2つの特性が,分類性能,ロバスト性,モデル校正性の向上につながることを示す。
さらに、時系列データにおけるモデル性能を改善することにより、非視覚領域へのアプローチが一般化されることを実証する。
論文 参考訳(メタデータ) (2020-04-07T18:22:02Z) - Learning Representations by Predicting Bags of Visual Words [55.332200948110895]
自己教師付き表現学習ターゲットは、ラベルなしデータから畳み込みに基づく画像表現を学習する。
この分野におけるNLP手法の成功に触発された本研究では,空間的に高密度な画像記述に基づく自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T16:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。