論文の概要: A picture of the space of typical learnable tasks
- arxiv url: http://arxiv.org/abs/2210.17011v1
- Date: Mon, 31 Oct 2022 01:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:21:47.117601
- Title: A picture of the space of typical learnable tasks
- Title(参考訳): 典型的な学習可能なタスクの空間の写真
- Authors: Rahul Ramesh, Jialin Mao, Itay Griniasty, Rubing Yang, Han Kheng Teoh,
Mark Transtrum, James P. Sethna, Pratik Chaudhari
- Abstract要約: 我々は、教師付き、メタ、コントラスト学習を用いて、異なるタスクで訓練されたディープ・ネットワークによって学習された表現を分析する。
学習可能なタスクの空間の構造に光を当てた、以下の驚くべき現象を発見した。
- 参考スコア(独自算出の注目度): 12.374133486467013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a technique to analyze representations learned by deep networks
when they are trained on different tasks using supervised, meta- and
contrastive learning. We develop a technique to visualize such representations
using an isometric embedding of the space of probabilistic models into a
lower-dimensional space, i.e., one that preserves pairwise distances. We
discover the following surprising phenomena that shed light upon the structure
in the space of learnable tasks: (1) the manifold of probabilistic models
trained on different tasks using different representation learning methods is
effectively low-dimensional; (2) supervised learning on one task results in a
surprising amount of progress on seemingly dissimilar tasks; progress on other
tasks is larger if the training task has diverse classes; (3) the structure of
the space of tasks indicated by our analysis is consistent with parts of the
Wordnet phylogenetic tree; (4) fine-tuning a model upon a sub-task does not
change the representation much if the model was trained for a large number of
epochs; (5) episodic meta-learning algorithms fit similar models eventually as
that of supervised learning, even if the two traverse different trajectories
during training; (6) contrastive learning methods trained on different datasets
learn similar representations. We use classification tasks constructed from the
CIFAR-10 and Imagenet datasets to study these phenomena.
- Abstract(参考訳): 我々は,教師付き,メタ・コントラスト学習を用いて,異なるタスクで学習した深層ネットワークの表現を分析する手法を開発した。
確率モデルの空間を低次元空間、すなわち対距離を保存する空間に等尺的に埋め込み、そのような表現を可視化する手法を開発した。
We discover the following surprising phenomena that shed light upon the structure in the space of learnable tasks: (1) the manifold of probabilistic models trained on different tasks using different representation learning methods is effectively low-dimensional; (2) supervised learning on one task results in a surprising amount of progress on seemingly dissimilar tasks; progress on other tasks is larger if the training task has diverse classes; (3) the structure of the space of tasks indicated by our analysis is consistent with parts of the Wordnet phylogenetic tree; (4) fine-tuning a model upon a sub-task does not change the representation much if the model was trained for a large number of epochs; (5) episodic meta-learning algorithms fit similar models eventually as that of supervised learning, even if the two traverse different trajectories during training; (6) contrastive learning methods trained on different datasets learn similar representations.
CIFAR-10とImagenetデータセットから構築した分類タスクを用いてこれらの現象を研究する。
関連論文リスト
- Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Fast Inference and Transfer of Compositional Task Structures for
Few-shot Task Generalization [101.72755769194677]
本稿では,タスクがサブタスクグラフによって特徴づけられる,数発の強化学習問題として定式化する。
我々のマルチタスクサブタスクグラフ推論器(MTSGI)は、トレーニングタスクから、まず、サブタスクグラフの観点から、一般的なハイレベルなタスク構造を推測する。
提案手法は,2次元グリッドワールドおよび複雑なWebナビゲーション領域において,タスクの共通基盤構造を学習し,活用し,未知のタスクへの適応を高速化する。
論文 参考訳(メタデータ) (2022-05-25T10:44:25Z) - Explaining the Effectiveness of Multi-Task Learning for Efficient
Knowledge Extraction from Spine MRI Reports [2.5953185061765884]
一つのマルチタスクモデルがタスク固有のモデルの性能にマッチすることを示す。
内科医による頚椎, 腰椎への注視所見について検討した。
論文 参考訳(メタデータ) (2022-05-06T01:51:19Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Divergent representations of ethological visual inputs emerge from
supervised, unsupervised, and reinforcement learning [20.98896935012773]
8つの異なる畳み込みニューラルネットワークによって学習された表現を比較する。
強化学習で訓練されたネットワークは,他のネットワークと大きく異なることがわかった。
論文 参考訳(メタデータ) (2021-12-03T17:18:09Z) - Self-Supervised Visual Representation Learning Using Lightweight
Architectures [0.0]
自己教師付き学習では、マシンによってアノテーションが生成されるデータセットを使用して、プレテキストタスクを解決するためにモデルが訓練される。
我々は、画像データから特徴を抽出する最も顕著な前文タスクを批判的に検討する。
我々は、他の全てのパラメータを均一に保ちながら、様々な自己監督技術の性能について研究する。
論文 参考訳(メタデータ) (2021-10-21T14:13:10Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z) - Analyzing Visual Representations in Embodied Navigation Tasks [45.35107294831313]
我々は、最近提案されたプロジェクション重み付き正準相関解析(PWCCA)を用いて、異なるタスクを実行することで、同じ環境で学習した視覚的表現の類似度を測定する。
次に、あるタスクで学習した視覚的表現が、別のタスクに効果的に転送できることを実証的に示す。
論文 参考訳(メタデータ) (2020-03-12T19:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。