論文の概要: Fuzzy Simplicial Networks: A Topology-Inspired Model to Improve Task
Generalization in Few-shot Learning
- arxiv url: http://arxiv.org/abs/2009.11253v1
- Date: Wed, 23 Sep 2020 17:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:09:48.513031
- Title: Fuzzy Simplicial Networks: A Topology-Inspired Model to Improve Task
Generalization in Few-shot Learning
- Title(参考訳): Fuzzy Simplicial Networks:Few-shot Learningにおけるタスク一般化改善のためのトポロジに基づくモデル
- Authors: Henry Kvinge, Zachary New, Nico Courts, Jung H. Lee, Lauren A.
Phillips, Courtney D. Corley, Aaron Tuor, Andrew Avila, Nathan O. Hodas
- Abstract要約: 少ないショット学習アルゴリズムは、限られたデータで新しいタスクをうまく一般化するように設計されている。
本稿では,Fizzy Simplicial Networks (FSN) と呼ばれる,トポロジから構築したモデルを用いて,限られたデータから各クラスをより柔軟に表現する手法を提案する。
- 参考スコア(独自算出の注目度): 1.0062040918634414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has shown great success in settings with massive amounts of
data but has struggled when data is limited. Few-shot learning algorithms,
which seek to address this limitation, are designed to generalize well to new
tasks with limited data. Typically, models are evaluated on unseen classes and
datasets that are defined by the same fundamental task as they are trained for
(e.g. category membership). One can also ask how well a model can generalize to
fundamentally different tasks within a fixed dataset (for example: moving from
category membership to tasks that involve detecting object orientation or
quantity). To formalize this kind of shift we define a notion of "independence
of tasks" and identify three new sets of labels for established computer vision
datasets that test a model's ability to generalize to tasks which draw on
orthogonal attributes in the data. We use these datasets to investigate the
failure modes of metric-based few-shot models. Based on our findings, we
introduce a new few-shot model called Fuzzy Simplicial Networks (FSN) which
leverages a construction from topology to more flexibly represent each class
from limited data. In particular, FSN models can not only form multiple
representations for a given class but can also begin to capture the
low-dimensional structure which characterizes class manifolds in the encoded
space of deep networks. We show that FSN outperforms state-of-the-art models on
the challenging tasks we introduce in this paper while remaining competitive on
standard few-shot benchmarks.
- Abstract(参考訳): ディープラーニングは、大量のデータを持つ設定で大きな成功を収めていますが、データ制限時に苦労しています。
この制限に対処しようとする数少ない学習アルゴリズムは、限られたデータで新しいタスクにうまく一般化するように設計されている。
通常、モデルは訓練されるのと同じ基本的なタスクによって定義される未確認のクラスやデータセットで評価される(例えば、カテゴリメンバーシップ)。
また、モデルが固定データセット内で根本的に異なるタスクにどのように一般化できるかを問うこともできる(例えば、カテゴリメンバシップから、オブジェクトの向きや量を検出するタスクに移行する)。
この種のシフトを形式化するために、我々は「タスクの独立性」の概念を定義し、データの直交属性を描くタスクに一般化するモデルの能力をテストする確立されたコンピュータビジョンデータセットのための3つの新しいラベルセットを識別する。
これらのデータセットを使用して、メトリックベースの少数ショットモデルの障害モードを調査します。
そこで本研究では,Fizzy Simplicial Networks (FSN) と呼ばれる,トポロジから構築したモデルを用いて,限られたデータから各クラスをより柔軟に表現する手法を提案する。
特に、fsnモデルは与えられたクラスに対する複数の表現を形成するだけでなく、ディープネットワークの符号化空間におけるクラス多様体を特徴づける低次元構造も捉えることができる。
本稿では,本論文で紹介する課題に対して,fsnが最先端モデルよりも優れていることを示す。
関連論文リスト
- Low-Rank Mixture-of-Experts for Continual Medical Image Segmentation [18.984447545932706]
破滅的な忘れ」問題は、モデルが新しいカテゴリやタスクに拡張された際に、以前に学習した特徴を忘れたときに発生する。
本稿では,データ固有のMixture of Experts構造を導入して,新しいタスクやカテゴリを扱うネットワークを提案する。
クラスレベルおよびタスクレベルの連続学習課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-06-19T14:19:50Z) - UniFS: Universal Few-shot Instance Perception with Point Representations [36.943019984075065]
そこで我々は,UniFSを提案する。UniFSは多種多様なインスタンス認識タスクを統一する汎用のインスタンス認識モデルである。
提案手法は,タスクについて最小限の仮定を行うが,高度に専門的で最適化されたスペシャリストモデルと比較して,競争力のある結果が得られる。
論文 参考訳(メタデータ) (2024-04-30T09:47:44Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - LLM2Loss: Leveraging Language Models for Explainable Model Diagnostics [5.33024001730262]
我々は、失敗とバイアスのモデルパターンに関するセマンティックな洞察を提供するアプローチを提案する。
このような軽量モデルのアンサンブルを用いて,ブラックボックスモデルの性能に関する洞察を得られることを示す。
論文 参考訳(メタデータ) (2023-05-04T23:54:37Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Mixture of basis for interpretable continual learning with distribution
shifts [1.6114012813668934]
データ分散のシフトを伴う環境での継続的な学習は、いくつかの現実世界のアプリケーションでは難しい問題である。
本稿では,この問題設定に対処するために,ベイシモデル(MoB)の混合方式を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:53:15Z) - Self-Supervision based Task-Specific Image Collection Summarization [3.115375810642661]
本稿では,意味情報と自己スーパービジョンを用いたタスク固有画像コーパス要約手法を提案する。
特徴生成ネットワークとして,分類に基づくWasserstein generation adversarial Network (WGAN) を用いる。
モデルは、セマンティック埋め込み空間におけるK平均クラスタリングを用いて、推論時に要約を生成する。
論文 参考訳(メタデータ) (2020-12-19T10:58:04Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。