論文の概要: Meta-learning Pathologies from Radiology Reports using Variance Aware
Prototypical Networks
- arxiv url: http://arxiv.org/abs/2210.13979v1
- Date: Sat, 22 Oct 2022 05:22:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:28:10.128223
- Title: Meta-learning Pathologies from Radiology Reports using Variance Aware
Prototypical Networks
- Title(参考訳): 異型ネットワークを利用した放射線診断からのメタラーニング
- Authors: Arijit Sehanobish, Kawshik Kannan, Nabila Abraham, Anasuya Das,
Benjamin Odry
- Abstract要約: 本稿では,数ショットのテキスト分類のためのプロトタイプネットワークの簡易拡張を提案する。
我々の主な考えは、クラスプロトタイプをガウスに置き換え、サンプルを適切なクラスセントロイドの近くでクラスタ化することを奨励する正規化項を導入することである。
- 参考スコア(独自算出の注目度): 3.464871689508835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large pretrained Transformer-based language models like BERT and GPT have
changed the landscape of Natural Language Processing (NLP). However, fine
tuning such models still requires a large number of training examples for each
target task, thus annotating multiple datasets and training these models on
various downstream tasks becomes time consuming and expensive. In this work, we
propose a simple extension of the Prototypical Networks for few-shot text
classification. Our main idea is to replace the class prototypes by Gaussians
and introduce a regularization term that encourages the examples to be
clustered near the appropriate class centroids. Experimental results show that
our method outperforms various strong baselines on 13 public and 4 internal
datasets. Furthermore, we use the class distributions as a tool for detecting
potential out-of-distribution (OOD) data points during deployment.
- Abstract(参考訳): BERTやGPTのような事前訓練されたトランスフォーマーベースの大規模言語モデルは、自然言語処理(NLP)の状況を変えました。
しかしながら、これらのモデルの微調整には、ターゲットタスク毎に多数のトレーニング例が必要であるため、複数のデータセットをアノテートし、さまざまなダウンストリームタスクでこれらのモデルをトレーニングすることは、時間がかかり、費用がかかる。
本研究では,少数のテキスト分類のためのプロトタイプネットワークの簡易拡張を提案する。
私たちの主なアイデアは、クラスプロトタイプをガウス型に置き換え、適切なクラスセンタロイドの近くにクラスタ化することを奨励する正規化用語を導入することです。
実験の結果,13の公開データセットと4つの内部データセットにおいて,各種の強いベースラインを上回った。
さらに、このクラス分布を、展開中にout-of-distribution(ood)データポイントを検出するツールとして使用する。
関連論文リスト
- Task-Adaptive Pretrained Language Models via Clustered-Importance Sampling [21.762562172089236]
代わりに、大規模なジェネラリストのトレーニングセットからスペシャリストモデルを構築します。
我々は、限られたドメイン固有データからのガイダンスにより、ジェネリストデータのトレーニング分布を調整する。
スケーラブルで、事前トレーニングと継続事前トレーニングに適しており、マルチタスク設定でうまく機能する。
論文 参考訳(メタデータ) (2024-09-30T20:49:54Z) - Unsupervised Calibration through Prior Adaptation for Text
Classification using Large Language Models [37.39843935632105]
ラベル付きサンプルを必要とせずにテキスト分類タスクを実行するために,先行クラス分布に適応する手法を提案する。
その結果,これらの手法は,プロンプト内の訓練ショット数が異なる場合,適応しないモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-13T12:11:36Z) - Large Language Model as Attributed Training Data Generator: A Tale of
Diversity and Bias [92.41919689753051]
大規模言語モデル(LLM)は、最近、様々な自然言語処理(NLP)タスクのためのトレーニングデータジェネレータとして活用されている。
本稿では,多様な属性を持つプロンプトを用いたトレーニングデータ生成について検討する。
属性付きプロンプトは、結果のモデルの性能の観点から、単純なクラス条件プロンプトより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-28T03:31:31Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Hierarchical Few-Shot Generative Models [18.216729811514718]
本稿では,ニューラルネットワークを階層的なアプローチに拡張する潜伏変数のアプローチについて検討する。
以上の結果から,階層的な定式化は,小データ構造における集合内の内在的変動をよりよく捉えることが示唆された。
論文 参考訳(メタデータ) (2021-10-23T19:19:39Z) - Discriminative and Generative Transformer-based Models For Situation
Entity Classification [8.029049649310211]
我々は、状況エンティティ(SE)分類タスクを、利用可能なトレーニングデータの量に応じて再検討する。
変換器を用いた変分オートエンコーダを用いて文を低次元の潜在空間に符号化する。
論文 参考訳(メタデータ) (2021-09-15T17:07:07Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。