論文の概要: Transferred Fusion Learning using Skipped Networks
- arxiv url: http://arxiv.org/abs/2011.05895v1
- Date: Wed, 11 Nov 2020 16:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:32:30.181004
- Title: Transferred Fusion Learning using Skipped Networks
- Title(参考訳): スキッピングネットワークを用いた転送核融合学習
- Authors: Vinayaka R Kamath, Vishal S, Varun M
- Abstract要約: トランスファーラーニングとゼロショットラーニングは、既存のモデルを再利用したり、既存のモデルを拡張して、オブジェクト認識のタスクにおけるパフォーマンスを改善するのに役立つ。
本稿では,ネットワークが相互に学習する学生アーキテクチャを導入することにより,伝達学習のプロセスを増幅する新しいメカニズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Identification of an entity that is of interest is prominent in any
intelligent system. The visual intelligence of the model is enhanced when the
capability of recognition is added. Several methods such as transfer learning
and zero shot learning help to reuse the existing models or augment the
existing model to achieve improved performance at the task of object
recognition. Transferred fusion learning is one such mechanism that intends to
use the best of both worlds and build a model that is capable of outperforming
the models involved in the system. We propose a novel mechanism to amplify the
process of transfer learning by introducing a student architecture where the
networks learn from each other.
- Abstract(参考訳): 興味のあるエンティティの識別は、知的システムにおいて顕著である。
認識能力が追加されると、モデルの視覚的インテリジェンスが向上する。
転送学習やゼロショット学習のようないくつかの方法は、既存のモデルを再利用したり、既存のモデルを拡張したりして、オブジェクト認識のタスクでパフォーマンスを向上させるのに役立ちます。
トランスファード融合学習(Transfered fusion learning)は、両方の世界を最大限に活用し、システムに関わるモデルよりも優れたモデルを構築するためのメカニズムである。
本稿では,ネットワークが相互に学習する学生アーキテクチャを導入することで,転校学習のプロセスを増幅する新しいメカニズムを提案する。
関連論文リスト
- Distilling Knowledge from CNN-Transformer Models for Enhanced Human
Action Recognition [1.8722948221596285]
本研究の目的は、より大規模な教師モデルから知識を伝達することで、より小さな学生モデルの性能と効率を向上させることである。
提案手法では,生徒モデルとしてトランスフォーマー・ビジョン・ネットワークを使用し,教師モデルとして畳み込みネットワークが機能する。
Vision Transformer (ViT) アーキテクチャは、画像のグローバルな依存関係をキャプチャするための堅牢なフレームワークとして導入された。
論文 参考訳(メタデータ) (2023-11-02T14:57:58Z) - Mechanism of feature learning in deep fully connected networks and
kernel machines that recursively learn features [15.29093374895364]
我々は,ニューラルネットワークが勾配特徴を学習するメカニズムを同定し,特徴付ける。
私たちのアンザッツは、突発的な特徴の出現や単純さのバイアスなど、さまざまな深層学習現象に光を当てています。
この特徴学習機構の有効性を実証するため,古典的非機能学習モデルにおいて特徴学習を可能にする。
論文 参考訳(メタデータ) (2022-12-28T15:50:58Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Learning Knowledge Representation with Meta Knowledge Distillation for
Single Image Super-Resolution [82.89021683451432]
単一画像超解像課題に対する教師/学生アーキテクチャに基づくモデルに依存しないメタ知識蒸留法を提案する。
種々の単一画像超解像データセットを用いた実験により,提案手法は既存の知識表現関連蒸留法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-18T02:41:04Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - Canoe : A System for Collaborative Learning for Neural Nets [4.547883122787855]
Canoeはニューラルネットワークの知識伝達を容易にするフレームワークである。
Canoeはヘルパーノードのニューラルネットワークから重要なパラメータを動的に抽出する新しいシステムサポートを提供する。
異なるPyTorchモデルとニューラルネットワークモデルによるCanoeの評価は、知識伝達機構が、独立した学習に比べて3.5Xへのモデルの適応性を改善することを示した。
論文 参考訳(メタデータ) (2021-08-27T05:30:15Z) - Revisiting Knowledge Distillation: An Inheritance and Exploration
Framework [153.73692961660964]
知識蒸留(KD)は、教師モデルから生徒モデルに知識を伝達する一般的な手法である。
新たな継承・探索知識蒸留フレームワーク(IE-KD)を提案する。
我々のIE-KDフレームワークは汎用的であり、ディープニューラルネットワークを訓練するための既存の蒸留や相互学習手法と簡単に組み合わせることができる。
論文 参考訳(メタデータ) (2021-07-01T02:20:56Z) - A Metamodel and Framework for Artificial General Intelligence From
Theory to Practice [11.756425327193426]
本稿では,自律学習と適応性を大幅に向上させるメタモデルに基づく知識表現を提案する。
我々は,時系列解析,コンピュータビジョン,自然言語理解といった問題にメタモデルを適用した。
メタモデルの驚くべき結果のひとつは、新たなレベルの自律的な学習と、マシンインテリジェンスのための最適な機能を可能にするだけでなく、それを可能にすることだ。
論文 参考訳(メタデータ) (2021-02-11T16:45:58Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - Self-organizing Democratized Learning: Towards Large-scale Distributed
Learning Systems [71.14339738190202]
民主化された学習(Dem-AI)は、大規模な分散および民主化された機械学習システムを構築するための基本原則を備えた全体主義的哲学を定めている。
本稿では,Dem-AI哲学にヒントを得た分散学習手法を提案する。
提案アルゴリズムは,従来のFLアルゴリズムと比較して,エージェントにおける学習モデルの一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2020-07-07T08:34:48Z) - Brain-inspired global-local learning incorporated with neuromorphic
computing [35.70151531581922]
我々は,脳に触発されたメタラーニングパラダイムと,神経力学とシナプス可塑性を取り入れた識別可能なスパイキングモデルを導入することで,ニューロモルフィックハイブリッド学習モデルを報告した。
ニューロモルフィック・ビジョン・センサにおける数ショット学習、連続学習、フォールトトレランス学習を含む複数のタスクにおいて、このモデルの利点を実証する。
論文 参考訳(メタデータ) (2020-06-05T04:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。