論文の概要: A Survey on Concept Factorization: From Shallow to Deep Representation
Learning
- arxiv url: http://arxiv.org/abs/2007.15840v3
- Date: Sun, 31 Jan 2021 08:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:46:25.450308
- Title: A Survey on Concept Factorization: From Shallow to Deep Representation
Learning
- Title(参考訳): 概念因子化に関する調査 : 浅部から深部まで
- Authors: Zhao Zhang, Yan Zhang, Mingliang Xu, Li Zhang, Yi Yang, Shuicheng Yan
- Abstract要約: 概念因子化(CF)は、機械学習とデータマイニングの分野で大きな関心を集めています。
まず、ルートCF法を再検討し、CFに基づく表現学習の進歩について検討する。
また、CFベースの手法の潜在的な適用領域についても紹介する。
- 参考スコア(独自算出の注目度): 104.78577405792592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of learned features by representation learning determines the
performance of learning algorithms and the related application tasks (such as
high-dimensional data clustering). As a relatively new paradigm for
representation learning, Concept Factorization (CF) has attracted a great deal
of interests in the areas of machine learning and data mining for over a
decade. Lots of effective CF based methods have been proposed based on
different perspectives and properties, but note that it still remains not easy
to grasp the essential connections and figure out the underlying explanatory
factors from exiting studies. In this paper, we therefore survey the recent
advances on CF methodologies and the potential benchmarks by categorizing and
summarizing the current methods. Specifically, we first re-view the root CF
method, and then explore the advancement of CF-based representation learning
ranging from shallow to deep/multilayer cases. We also introduce the potential
application areas of CF-based methods. Finally, we point out some future
directions for studying the CF-based representation learning. Overall, this
survey provides an insightful overview of both theoretical basis and current
developments in the field of CF, which can also help the interested researchers
to understand the current trends of CF and find the most appropriate CF
techniques to deal with particular applications.
- Abstract(参考訳): 表現学習による学習特徴の品質は、学習アルゴリズムと関連するアプリケーションタスク(高次元データクラスタリングなど)のパフォーマンスを決定する。
表現型学習の比較的新しいパラダイムとして、概念因子化(CF)は10年以上にわたって機械学習とデータマイニングの分野で大きな関心を集めてきた。
多くの有効なCF法が様々な視点や特性に基づいて提案されているが、それでも本質的な関係を把握し、基礎となる説明的要因を出口研究から解明することは容易ではない。
そこで本稿では,CF手法の最近の進歩と,現在の手法を分類・要約することで,潜在的なベンチマークについて調査する。
具体的には、まずルートCF法を再検討し、浅いケースから深層/多層ケースまで、CFに基づく表現学習の進歩について検討する。
CFベースの手法の潜在的な適用領域についても紹介する。
最後に,CFに基づく表現学習の今後の方向性について述べる。
全体として、この調査はcfの分野における理論的基礎と現在の発展の両方について洞察に富んだ概要を提供するもので、興味のある研究者がcfの現在のトレンドを理解し、特定のアプリケーションを扱うのに最適なcf技術を見つけるのに役立つ。
関連論文リスト
- High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - Continual Learning with Pre-Trained Models: A Survey [61.97613090666247]
継続的な学習は、新しい知識を学ぶ際に、かつての知識の破滅的な忘れを克服することを目的としている。
本稿では, PTM を用いた CL の最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-01-29T18:27:52Z) - Few-shot Class-incremental Learning: A Survey [16.729567512584822]
FSCIL(Few-shot Class-Incremental Learning)は機械学習(ML)においてユニークな課題を提示する
本稿は、FSCILの総合的かつ体系的なレビューを提供することを目的としている。
論文 参考訳(メタデータ) (2023-08-13T13:01:21Z) - Semi-supervised multi-view concept decomposition [30.699496411869834]
概念因子化(CF)は、マルチビュークラスタリングタスクにおいて優れた性能を示している。
そこで我々は,SMVCFという,新しい半教師付き多視点概念分解モデルを提案する。
SMVCFの性能を評価するために,4つの多様なデータセットの実験を行った。
論文 参考訳(メタデータ) (2023-07-03T10:50:44Z) - A Survey on Few-Shot Class-Incremental Learning [11.68962265057818]
FSCIL(Few-shot class-incremental Learning)は、ディープニューラルネットワークが新しいタスクを学習する上で重要な課題である。
本稿では, FSCILに関する包括的調査を行う。
FSCILはコンピュータビジョンの様々な分野で大きな成果を上げている。
論文 参考訳(メタデータ) (2023-04-17T10:15:08Z) - A Comprehensive Survey on Deep Clustering: Taxonomy, Challenges, and
Future Directions [48.97008907275482]
クラスタリングは、文献で広く研究されている基本的な機械学習タスクである。
ディープクラスタリング(Deep Clustering)、すなわち表現学習とクラスタリングを共同で最適化する手法が提案され、コミュニティで注目を集めている。
深層クラスタリングの本質的なコンポーネントを要約し、深層クラスタリングと深層クラスタリングの相互作用を設計する方法によって既存の手法を分類する。
論文 参考訳(メタデータ) (2022-06-15T15:05:13Z) - Which Mutual-Information Representation Learning Objectives are
Sufficient for Control? [80.2534918595143]
相互情報は、データの表現を学習するために魅力的な形式を提供する。
本稿では,最適政策の学習と表現のための状態表現の十分性について定式化する。
意外なことに、これらの2つの目的は、MDPの構造に関する軽度で一般的な仮定を前提に、不十分な表現をもたらす可能性がある。
論文 参考訳(メタデータ) (2021-06-14T10:12:34Z) - A Theoretical Analysis of Catastrophic Forgetting through the NTK
Overlap Matrix [16.106653541368306]
その結果,2つのタスクが整合するにつれて,カタストロフィック・フォージッティングの影響が増大していることが示唆された。
本稿では,データ構造を利用した直交勾配Descent (OGD) の変種を提案する。
実験は、我々の理論的な結果をサポートし、我々の手法が古典的なCLデータセットにおけるCFの削減にどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-10-07T17:35:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。