論文の概要: Handling Class Imbalance in Low-Resource Dialogue Systems by Combining
Few-Shot Classification and Interpolation
- arxiv url: http://arxiv.org/abs/2010.15090v1
- Date: Wed, 28 Oct 2020 17:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 04:35:49.798995
- Title: Handling Class Imbalance in Low-Resource Dialogue Systems by Combining
Few-Shot Classification and Interpolation
- Title(参考訳): Few-Shot分類と補間を組み合わせた低リソース対話システムにおけるクラス不均衡処理
- Authors: Vishal Sunder and Eric Fosler-Lussier
- Abstract要約: 低リソース対話システムにおける発話分類性能は、クラスラベルにおける必然的に高いデータ不均衡によって制約される。
本稿では,発話表現に数発の分類機能を導入し,発話表現を非依存にすることでデータを増強する,エンドツーエンドのペアワイズ学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.988400064884825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utterance classification performance in low-resource dialogue systems is
constrained by an inevitably high degree of data imbalance in class labels. We
present a new end-to-end pairwise learning framework that is designed
specifically to tackle this phenomenon by inducing a few-shot classification
capability in the utterance representations and augmenting data through an
interpolation of utterance representations. Our approach is a general purpose
training methodology, agnostic to the neural architecture used for encoding
utterances. We show significant improvements in macro-F1 score over standard
cross-entropy training for three different neural architectures, demonstrating
improvements on a Virtual Patient dialogue dataset as well as a low-resourced
emulation of the Switchboard dialogue act classification dataset.
- Abstract(参考訳): 低リソース対話システムにおける発話分類性能は、必然的に高いデータ不均衡によって制限される。
我々は,この現象に対処するために,発話表現に数発の分類機能を導入し,発話表現の補間を通じてデータを増大させることにより,新たなエンドツーエンドのペアワイズ学習フレームワークを提案する。
我々のアプローチは汎用学習手法であり,発話の符号化に使用されるニューラルネットワークとは無関係である。
3種類のニューラルアーキテクチャの標準クロスエントロピートレーニングよりもマクロf1スコアが大幅に向上し,仮想患者対話データセットやスイッチボード対話法分類データセットの低リソースエミュレーションも改善した。
関連論文リスト
- Enhanced Transformer architecture for in-context learning of dynamical systems [0.3749861135832073]
本稿では,従来のメタモデリングフレームワークを3つの重要な革新を通じて強化する。
これらの修正の有効性は、Wiener-Hammerstein系クラスに焦点をあてた数値的な例を通して示される。
論文 参考訳(メタデータ) (2024-10-04T10:05:15Z) - Self-supervised Learning of Dense Hierarchical Representations for Medical Image Segmentation [2.2265038612930663]
本稿では,高密度下流タスクに適したボクセルワイド粗い表現を学習するための自己教師型フレームワークについて述べる。
我々は、複数のスケールから機能のコントリビューションのバランスをとるためのトレーニング戦略を考案し、学習された表現が粗い詳細ときめ細かい詳細の両方を捉えることを保証する。
論文 参考訳(メタデータ) (2024-01-12T09:47:17Z) - APoLLo: Unified Adapter and Prompt Learning for Vision Language Models [58.9772868980283]
本稿では,視覚言語モデルに対する適応学習とプロンプト学習を組み合わせた統合マルチモーダルアプローチであるAPoLLoを提案する。
APoLLoは10種類の画像認識データセットに対して、MaPLe(SOTA)よりも6.03%向上している。
論文 参考訳(メタデータ) (2023-12-04T01:42:09Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Distant finetuning with discourse relations for stance classification [55.131676584455306]
そこで本研究では,定位分類のモデルとして,原文から銀ラベルでデータを抽出し,微調整する手法を提案する。
また,様々な段階において微調整に用いるデータのノイズレベルが減少する3段階のトレーニングフレームワークを提案する。
NLPCC 2021共有タスクArgumentative Text Understanding for AI Debaterでは,26の競合チームの中で1位にランクインした。
論文 参考訳(メタデータ) (2022-04-27T04:24:35Z) - Enhancing efficiency of object recognition in different categorization
levels by reinforcement learning in modular spiking neural networks [1.392250707100996]
本稿では,異なる分類レベルにおける物体認識のための計算モデルを提案する。
強化学習規則を備えたスパイクニューラルネットワークは、各分類レベルでモジュールとして使用される。
各分類レベルで必要な情報に基づいて、関連する帯域通過フィルタ画像を利用する。
論文 参考訳(メタデータ) (2021-02-10T12:33:20Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。