論文の概要: Towards One-Shot Learning for Text Classification using Inductive Logic
Programming
- arxiv url: http://arxiv.org/abs/2308.15885v1
- Date: Wed, 30 Aug 2023 09:04:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-31 14:03:14.522988
- Title: Towards One-Shot Learning for Text Classification using Inductive Logic
Programming
- Title(参考訳): 帰納的論理プログラミングを用いたテキスト分類のためのワンショット学習
- Authors: Ghazal Afroozi Milani (University of Surrey), Daniel Cyrus (University
of Surrey), Alireza Tamaddoni-Nezhad (University of Surrey)
- Abstract要約: 本稿では,単発テキスト分類のための帰納的論理プログラミング手法について検討する。
その結果,MILは少数の学習例からテキスト分類規則を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the ever-increasing potential of AI to perform personalised tasks, it is
becoming essential to develop new machine learning techniques which are
data-efficient and do not require hundreds or thousands of training data. In
this paper, we explore an Inductive Logic Programming approach for one-shot
text classification. In particular, we explore the framework of
Meta-Interpretive Learning (MIL), along with using common-sense background
knowledge extracted from ConceptNet. Results indicate that MIL can learn text
classification rules from a small number of training examples. Moreover, the
higher complexity of chosen examples, the higher accuracy of the outcome.
- Abstract(参考訳): パーソナライズされたタスクを実行するaiのポテンシャルがますます高まる中、データ効率が高く、数百から数千のトレーニングデータを必要としない新しい機械学習技術を開発することが重要になっている。
本稿では,単発テキスト分類のための帰納的論理プログラミング手法について検討する。
特に,概念ネットから抽出した常識的背景知識を用いて,メタ解釈学習(MIL)の枠組みを検討する。
その結果,MILは少数の学習例からテキスト分類規則を学習できることが示唆された。
さらに、選択した例の複雑さが高いほど、結果の正確性が高くなる。
関連論文リスト
- Knowledge Tagging with Large Language Model based Multi-Agent System [17.53518487546791]
本稿では,従来のアルゴリズムの限界に対処するマルチエージェントシステムについて検討する。
我々は,従来の手法が抱えていた課題を克服する上で,LLMベースのマルチエージェントシステムの可能性を強調した。
論文 参考訳(メタデータ) (2024-09-12T21:39:01Z) - Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - A Universal Prompting Strategy for Extracting Process Model Information from Natural Language Text using Large Language Models [0.8899670429041453]
生成型大規模言語モデル(LLM)は,広範囲なデータを必要とすることなく,非常に高品質なNLPタスクを解くことができることを示す。
新たなプロンプト戦略に基づいて,LLMが最先端の機械学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-26T06:39:35Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Prompt-Learning for Fine-Grained Entity Typing [40.983849729537795]
完全教師付き,少数ショット,ゼロショットシナリオにおける微粒化エンティティタイピングに対するプロンプトラーニングの適用について検討する。
本稿では,エンティティタイプの情報を自動的に要約するために,プロンプトラーニングにおける分布レベルの最適化を行う自己教師型戦略を提案する。
論文 参考訳(メタデータ) (2021-08-24T09:39:35Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z) - DeCLUTR: Deep Contrastive Learning for Unsupervised Textual
Representations [4.36561468436181]
教師なしテキスト表現のためのDeCLUTR: Deep Contrastive Learningを提案する。
本手法は,ユニバーサル文エンコーダにおける教師なしと教師なしの事前学習のパフォーマンスギャップを埋めるものである。
私たちのコードと事前訓練されたモデルは公開されており、新しいドメインに簡単に適応したり、目に見えないテキストを埋め込むのに使えます。
論文 参考訳(メタデータ) (2020-06-05T20:00:28Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z) - Knowledge Guided Metric Learning for Few-Shot Text Classification [22.832467388279873]
我々は,人間の知識を模倣する素早い学習に外部知識を導入することを提案する。
人間の知性に触発され,人間の知識を模倣する素早い学習に外部知識を導入することを提案する。
提案手法は,最新の数ショットのテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-04T10:56:26Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。