論文の概要: What Can Knowledge Bring to Machine Learning? -- A Survey of Low-shot
Learning for Structured Data
- arxiv url: http://arxiv.org/abs/2106.06410v1
- Date: Fri, 11 Jun 2021 14:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:31:55.245239
- Title: What Can Knowledge Bring to Machine Learning? -- A Survey of Low-shot
Learning for Structured Data
- Title(参考訳): 知識は機械学習に何をもたらすのか?
--構造化データのローショット学習に関する調査
- Authors: Yang Hu, Adriane Chapman, Guihua Wen and Dame Wendy Hall
- Abstract要約: ローショット学習により、モデルはトレーニングデータをほとんど、あるいは全く持たずに、優れた予測力を得ることができる。
構造化知識は、人間の高度な意味表現として重要な役割を果たしている。
- 参考スコア(独自算出の注目度): 11.531353877970547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised machine learning has several drawbacks that make it difficult to
use in many situations. Drawbacks include: heavy reliance on massive training
data, limited generalizability and poor expressiveness of high-level semantics.
Low-shot Learning attempts to address these drawbacks. Low-shot learning allows
the model to obtain good predictive power with very little or no training data,
where structured knowledge plays a key role as a high-level semantic
representation of human. This article will review the fundamental factors of
low-shot learning technologies, with a focus on the operation of structured
knowledge under different low-shot conditions. We also introduce other
techniques relevant to low-shot learning. Finally, we point out the limitations
of low-shot learning, the prospects and gaps of industrial applications, and
future research directions.
- Abstract(参考訳): 監視された機械学習には、多くの状況での使用が困難になるいくつかの欠点がある。
大量のトレーニングデータへの依存、限定的な一般化性、ハイレベルなセマンティクスの表現力の低下。
ローショット学習はこれらの欠点に対処しようとする。
ローショット学習は、構造化知識が人間の高度な意味表現として重要な役割を担っている、非常に少ない、または全く訓練データで優れた予測力を得ることができる。
本稿では,異なる低ショット環境下での構造化知識の操作に着目し,低ショット学習技術の基本的要因について概説する。
ローショット学習に関する他のテクニックも紹介する。
最後に,ローショット学習の限界,産業応用の可能性とギャップ,今後の研究方向性を指摘する。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Cheap Learning: Maximising Performance of Language Models for Social
Data Science Using Minimal Data [1.8692054990918079]
近年発展してきた3つの安価な技術について概観する。
後者では、大規模言語モデルのゼロショットプロンプトの特定の事例について概観する。
我々は,すべての技術に対して優れた性能を示し,特に大規模言語モデルのプロンプトが,非常に低コストで高い精度を達成できることを示す。
論文 参考訳(メタデータ) (2024-01-22T19:00:11Z) - Less is More: A Closer Look at Semantic-based Few-Shot Learning [11.724194320966959]
Few-shot Learningは、利用可能な画像の数が非常に限られている新しいカテゴリを学習し、区別することを目的としている。
本稿では,テキスト情報と言語モデルを活用することを目的とした,数ショットの学習タスクのための,シンプルだが効果的なフレームワークを提案する。
広範に使われている4つのショットデータセットで実施した実験は、我々の単純なフレームワークが印象的な結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-10T08:56:02Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Hierarchical Skills for Efficient Exploration [70.62309286348057]
強化学習において、事前訓練された低レベルスキルは、探索を大幅に促進する可能性がある。
下流タスクの以前の知識は、スキルデザインにおける一般性(きめ細かい制御)と特異性(より高速な学習)の適切なバランスをとるために必要である。
教師なしの方法で様々な複雑さのスキルを習得する階層的スキル学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-20T22:29:32Z) - Demystification of Few-shot and One-shot Learning [63.58514532659252]
近年,単発学習や単発学習が活発かつ集中的な研究の対象となっている。
学習機械の環境的あるいは潜在的な決定空間が、この空間にある大きな種類の物体よりも十分に高次元であれば、いくつかの例から容易に学習できることを示す。
論文 参考訳(メタデータ) (2021-04-25T14:47:05Z) - A Survey on Recent Approaches for Natural Language Processing in
Low-Resource Scenarios [30.391291221959545]
ディープニューラルネットワークと巨大な言語モデルが、自然言語アプリケーションにおいて一様化しつつある。
大量のトレーニングデータを必要とすることで知られているため、低リソース環境でのパフォーマンスを改善するための作業が増えている。
ニューラルモデルに対する最近の根本的な変化と、一般的なプレトレインおよびファインチューンパラダイムにより、低リソースの自然言語処理に対する有望なアプローチを調査した。
論文 参考訳(メタデータ) (2020-10-23T11:22:01Z) - Looking back to lower-level information in few-shot learning [4.873362301533825]
本稿では,隠れたニューラルネットワーク層の特徴埋め込みを低レベル支援情報として活用し,分類精度を向上させることを提案する。
筆者らは,MiniImageNet と tieredImageNet という2つの人気の数点学習データセットを用いた実験を行い,この手法がネットワークの低レベル情報を利用して最先端の分類性能を向上できることを示した。
論文 参考訳(メタデータ) (2020-05-27T20:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。