論文の概要: Auxiliary Learning as a step towards Artificial General Intelligence
- arxiv url: http://arxiv.org/abs/2212.00061v1
- Date: Wed, 30 Nov 2022 19:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:54:54.939545
- Title: Auxiliary Learning as a step towards Artificial General Intelligence
- Title(参考訳): 人工知能へのステップとしての補助学習
- Authors: Christeen T. Jose
- Abstract要約: 補助学級の導入により補助学級の名称が選ばれた。
本稿は、既存の狭義ニューラルネットワークの汎用性の向上と、未知のオブジェクトを扱う必要性を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auxiliary Learning is a machine learning approach in which the model
acknowledges the existence of objects that do not come under any of its learned
categories.The name Auxiliary learning was chosen due to the introduction of an
auxiliary class. The paper focuses on increasing the generality of existing
narrow purpose neural networks and also highlights the need to handle unknown
objects. The Cat & Dog binary classifier is taken as an example throughout the
paper.
- Abstract(参考訳): 補助学習は、学習対象のいずれにも属さない物体の存在をモデルが認識する機械学習アプローチであり、補助学習の名称は補助クラスの導入によって選択された。
本稿は、既存の狭義ニューラルネットワークの汎用性の向上と、未知のオブジェクトを扱う必要性を強調している。
Cat & Dogのバイナリ分類器は、全紙で例にとられている。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - CBCL-PR: A Cognitively Inspired Model for Class-Incremental Learning in
Robotics [22.387008072671005]
本研究では,海馬と新皮質における概念学習理論に触発された新しい枠組みを提案する。
私たちのフレームワークは、クラスタの集合の形でオブジェクトクラスを表現し、それらをメモリに格納します。
本手法は,2つのオブジェクト分類データセットを用いて,クラス増分学習におけるSOTA(State-of-the-art)性能とFSIL(FSIL)性能を評価する。
論文 参考訳(メタデータ) (2023-07-31T23:34:27Z) - Ticketed Learning-Unlearning Schemes [57.89421552780526]
そこで我々は,学習のためのチケット付きモデルを提案する。
広義のコンセプトクラスに対して,空間効率のよいチケット付き学習スキームを提供する。
論文 参考訳(メタデータ) (2023-06-27T18:54:40Z) - Fortuitous Forgetting in Connectionist Networks [20.206607130719696]
我々は,ニューラルネットワークの学習軌跡を形成するための強力なパラダイムとして,"forget-and-relearn"を紹介した。
forget-and-relearnフレームワークは、画像分類と言語出現文学において、多くの既存の反復的トレーニングアルゴリズムを統合する。
我々は、この理解を活用して、よりターゲットを絞った忘れ操作を設計することで、既存のアルゴリズムを改善する。
論文 参考訳(メタデータ) (2022-02-01T00:15:58Z) - On the Role of Neural Collapse in Transfer Learning [29.972063833424215]
近年,多くのクラスにまたがる単一分類器で学習した表現は,数発の学習問題において競合することが示された。
神経崩壊は、トレーニングクラスからの新しいサンプルに一般化され、さらに重要なことは、新しいクラスにも一般化されます。
論文 参考訳(メタデータ) (2021-12-30T16:36:26Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Computing Class Hierarchies from Classifiers [12.631679928202516]
ニューラルネットワークからクラス階層を自動的に取得する新しいアルゴリズムを提案する。
我々のアルゴリズムは、よく知られたディープニューラルネットワークモデルに驚くほど優れた階層を生成する。
論文 参考訳(メタデータ) (2021-12-02T13:01:04Z) - Reasoning-Modulated Representations [85.08205744191078]
タスクが純粋に不透明でないような共通的な環境について研究する。
我々のアプローチは、新しいデータ効率表現学習の道を開く。
論文 参考訳(メタデータ) (2021-07-19T13:57:13Z) - Unsupervised One-shot Learning of Both Specific Instances and
Generalised Classes with a Hippocampal Architecture [0.0]
特定のインスタンスを識別することは、あなたが属するカップを記憶するなど、現実世界の多くのタスクに必要である。
クラス内の一般化は、クラスのインスタンスを分離する能力と矛盾し、単一のアーキテクチャ内で両方の機能を達成するのが難しくなる。
我々は,1回の露光後に特定のインスタンスを識別する能力をテストする標準Omniglot分類一般化フレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2020-10-30T00:10:23Z) - Aggregated Learning: A Vector-Quantization Approach to Learning Neural
Network Classifiers [48.11796810425477]
IB学習は、実際、量子化問題の特別なクラスと等価であることを示す。
ニューラルネットワークモデルを用いた分類のための新しい学習フレームワーク"集約学習"を提案する。
本フレームワークの有効性は,標準画像認識およびテキスト分類タスクに関する広範な実験を通じて検証される。
論文 参考訳(メタデータ) (2020-01-12T16:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。