論文の概要: A Survey of Learning on Small Data
- arxiv url: http://arxiv.org/abs/2207.14443v1
- Date: Fri, 29 Jul 2022 02:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 13:09:17.509029
- Title: A Survey of Learning on Small Data
- Title(参考訳): 小規模データの学習に関する調査
- Authors: Xiaofeng Cao, Weixin Bu, Shengjun Huang, Yingpeng Tang, Yaming Guo, Yi
Chang, Ivor W. Tsang
- Abstract要約: 小データの学習は人工知能(AI)の究極の目的の1つである
この調査はPACフレームワーク下でのアクティブサンプリングに追随し、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
コンピュータビジョンや自然言語処理といった、小さなデータでの学習の恩恵を受ける難しい応用も調査されている。
- 参考スコア(独自算出の注目度): 57.7927064723908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning on big data brings success for artificial intelligence (AI), but the
annotation and training costs are expensive. In future, learning on small data
is one of the ultimate purposes of AI, which requires machines to recognize
objectives and scenarios relying on small data as humans. A series of machine
learning models is going on this way such as active learning, few-shot
learning, deep clustering. However, there are few theoretical guarantees for
their generalization performance. Moreover, most of their settings are passive,
that is, the label distribution is explicitly controlled by one specified
sampling scenario. This survey follows the agnostic active sampling under a PAC
(Probably Approximately Correct) framework to analyze the generalization error
and label complexity of learning on small data using a supervised and
unsupervised fashion. With these theoretical analyses, we categorize the small
data learning models from two geometric perspectives: the Euclidean and
non-Euclidean (hyperbolic) mean representation, where their optimization
solutions are also presented and discussed. Later, some potential learning
scenarios that may benefit from small data learning are then summarized, and
their potential learning scenarios are also analyzed. Finally, some challenging
applications such as computer vision, natural language processing that may
benefit from learning on small data are also surveyed.
- Abstract(参考訳): ビッグデータの学習は人工知能(AI)の成功をもたらすが、アノテーションとトレーニングコストは高い。
将来的には、小さなデータによる学習はAIの究極の目的のひとつであり、機械は小さなデータに依存する目的やシナリオを人間として認識する必要がある。
機械学習の一連のモデルは、アクティブラーニング、少数ショットラーニング、ディープクラスタリングなど、このように進んでいる。
しかし、その一般化性能に関する理論的な保証はほとんどない。
さらに、ほとんどの設定は受動的であり、ラベルの分布は特定のサンプリングシナリオによって明示的に制御される。
この調査はPAC(おそらく略正)フレームワーク下での能動サンプリングに追随し、教師なしの手法を用いて、小さなデータ上での学習の一般化誤差とラベルの複雑さを分析した。
これらの理論解析により, 2つの幾何学的視点から, ユークリッド平均表現と非ユークリッド平均表現の2つの小さなデータ学習モデルを分類し, その最適化解を提示し, 議論する。
その後、小さなデータ学習の恩恵を受ける可能性のある学習シナリオが要約され、その潜在的な学習シナリオも分析される。
最後に,コンピュータビジョンや自然言語処理といった,小さなデータで学ぶことのメリットを享受する困難なアプリケーションについても調査を行った。
関連論文リスト
- Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Curriculum Learning for Graph Neural Networks: Which Edges Should We
Learn First [13.37867275976255]
本研究は, 難易度から難易度, 難易度に応じて, より多くのエッジをトレーニングに組み込む新しい戦略を提案する。
提案手法の強みは,学習した表現の一般化能力とロバスト性の向上である。
論文 参考訳(メタデータ) (2023-10-28T15:35:34Z) - Exploring the Boundaries of Semi-Supervised Facial Expression Recognition using In-Distribution, Out-of-Distribution, and Unconstrained Data [23.4909421082857]
表情認識(FER)における最新の半教師あり手法11について検討する。
本研究は,非流通,アウト・オブ・ディストリビューション,制約のない,非常に小さなデータからの半教師付き学習を対象とする。
ラベル付きサンプルの数が等しいため、半教師付き学習は教師付き学習よりも大幅に改善される。
論文 参考訳(メタデータ) (2023-06-02T01:40:08Z) - Zero-shot meta-learning for small-scale data from human subjects [10.320654885121346]
我々は,サンプル外テストデータに対する限られたトレーニングデータを用いて,新しい予測タスクに迅速に適応するフレームワークを開発した。
本モデルでは, 介入による遅延処理効果を学習し, 設計上はマルチタスク予測を自然に処理できる。
我々のモデルは、より広い人口への小型人間研究の一般化を向上するために重要である。
論文 参考訳(メタデータ) (2022-03-29T17:42:04Z) - Learning from Few Examples: A Summary of Approaches to Few-Shot Learning [3.6930948691311016]
Few-Shot Learningは、いくつかのトレーニングサンプルからデータの基本パターンを学習する問題を指す。
ディープラーニングソリューションは、データ飢餓と、膨大な計算時間とリソースに悩まされている。
機械学習アプリケーション構築のターンアラウンド時間を劇的に短縮できるようなショットラーニングは、低コストのソリューションとして現れます。
論文 参考訳(メタデータ) (2022-03-07T23:15:21Z) - CvS: Classification via Segmentation For Small Datasets [52.821178654631254]
本稿では,分類ラベルをセグメントマップの予測から導出する小型データセットのコスト効率の高い分類器であるCvSを提案する。
我々は,CvSが従来の手法よりもはるかに高い分類結果が得られることを示す多種多様な問題に対して,本フレームワークの有効性を評価する。
論文 参考訳(メタデータ) (2021-10-29T18:41:15Z) - Enhancing ensemble learning and transfer learning in multimodal data
analysis by adaptive dimensionality reduction [10.646114896709717]
マルチモーダルデータ分析では、すべての観測が同じレベルの信頼性や情報品質を示すわけではない。
この問題を克服するために,次元削減のための適応的アプローチを提案する。
多様な研究分野で得られたマルチモーダルデータセットのアプローチをテストします。
論文 参考訳(メタデータ) (2021-05-08T11:53:12Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。