論文の概要: Multi-task manifold learning for small sample size datasets
- arxiv url: http://arxiv.org/abs/2111.11655v2
- Date: Wed, 24 Nov 2021 10:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 12:30:15.247152
- Title: Multi-task manifold learning for small sample size datasets
- Title(参考訳): 小型サンプルサイズデータセットのためのマルチタスク多様体学習
- Authors: Hideaki Ishibashi, Kazushi Higa, Tetsuo Furukawa
- Abstract要約: 提案手法は,タスクに対応する生成多様体モデルの集合からなる。
結果は,少数のサンプルであっても,この手法で多様体を推定できることを示した。
- 参考スコア(独自算出の注目度): 0.966840768820136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we develop a method for multi-task manifold learning. The
method aims to improve the performance of manifold learning for multiple tasks,
particularly when each task has a small number of samples. Furthermore, the
method also aims to generate new samples for new tasks, in addition to new
samples for existing tasks. In the proposed method, we use two different types
of information transfer: instance transfer and model transfer. For instance
transfer, datasets are merged among similar tasks, whereas for model transfer,
the manifold models are averaged among similar tasks. For this purpose, the
proposed method consists of a set of generative manifold models corresponding
to the tasks, which are integrated into a general model of a fiber bundle. We
applied the proposed method to artificial datasets and face image sets, and the
results showed that the method was able to estimate the manifolds, even for a
tiny number of samples.
- Abstract(参考訳): 本研究では,マルチタスク多様体学習法を開発した。
本手法は,複数のタスク,特に各タスクが少数のサンプルを持つ場合に,多様体学習の性能を向上させることを目的としている。
さらに,既存のタスクの新しいサンプルに加えて,新しいタスクのための新しいサンプルを生成することを目的とする。
提案手法では,インスタンス転送とモデル転送の2種類の情報転送を利用する。
転送の場合、データセットは類似のタスクにマージされるが、モデル転送の場合、多様体モデルは類似のタスク間で平均化される。
この目的のために提案手法は,ファイバーバンドルの一般モデルに統合されたタスクに対応する生成多様体モデルの集合からなる。
提案手法を人工的データセットと顔画像集合に適用し,少数のサンプルであっても,本手法が多様体を推定できることを示した。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Touring sampling with pushforward maps [3.5897534810405403]
本稿では、生成モデル設定における多くのサンプリングアプローチをレビューし、整理するために理論的スタンスをとる。
拡散モデルを用いたサンプリングにおける現在の課題のいくつかを克服するのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-11-23T08:23:43Z) - AdaMerging: Adaptive Model Merging for Multi-Task Learning [68.75885518081357]
本稿では,Adaptive Model Merging (AdaMerging)と呼ばれる革新的な手法を紹介する。
本来のトレーニングデータに頼ることなく、タスクレベルでも階層的にも、モデルマージの係数を自律的に学習することを目指している。
AdaMergingは、現在の最先端のタスク演算のマージ方式と比較すると、パフォーマンスが11%向上している。
論文 参考訳(メタデータ) (2023-10-04T04:26:33Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Adaptive and Robust Multi-Task Learning [8.883733362171036]
異なるソースから収集した複数のデータセットを同時に解析することを目的としたマルチタスク学習問題について検討する。
本稿では,それらのタスク間の類似性を自動で活用する適応手法のファミリーを提案する。
我々は,これらの手法の統計的保証を鋭く導き,その頑健さを不利なタスクに対して証明する。
論文 参考訳(メタデータ) (2022-02-10T18:55:58Z) - The Effect of Diversity in Meta-Learning [79.56118674435844]
少ないショット学習は、少数の例から見れば、新しいタスクに対処できる表現を学習することを目的としている。
近年の研究では,タスク分布がモデルの性能に重要な役割を担っていることが示されている。
タスクの多様性がメタ学習アルゴリズムに与える影響を評価するために,多種多様なモデルとデータセットのタスク分布について検討する。
論文 参考訳(メタデータ) (2022-01-27T19:39:07Z) - Mixture of basis for interpretable continual learning with distribution
shifts [1.6114012813668934]
データ分散のシフトを伴う環境での継続的な学習は、いくつかの現実世界のアプリケーションでは難しい問題である。
本稿では,この問題設定に対処するために,ベイシモデル(MoB)の混合方式を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:53:15Z) - Label-Efficient Multi-Task Segmentation using Contrastive Learning [0.966840768820136]
比較学習に基づくサブタスクを用いたマルチタスクセグメンテーションモデルを提案し、その性能を他のマルチタスクモデルと比較する。
提案手法は,アノテートデータの量に制限がある場合に,最先端の完全教師付きモデルを含む他のマルチタスク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T14:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。