論文の概要: Contextual Multi-View Query Learning for Short Text Classification in
User-Generated Data
- arxiv url: http://arxiv.org/abs/2112.02611v1
- Date: Sun, 5 Dec 2021 16:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 14:21:31.262208
- Title: Contextual Multi-View Query Learning for Short Text Classification in
User-Generated Data
- Title(参考訳): ユーザ生成データの短文分類のためのコンテキスト多視点クエリ学習
- Authors: Payam Karisani, Negin Karisani, Li Xiong
- Abstract要約: COCOBAは2つのビューを構築するためにユーザ投稿のコンテキストを利用する。
次に、各ビューにおける表現の分布を使用して、反対のクラスに割り当てられた領域を検出する。
我々のモデルは、通常ノイズの多いユーザ投稿の言語に対処するために、クエリ・バイ・コミッテ・モデルも採用しています。
- 参考スコア(独自算出の注目度): 6.052423212814052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mining user-generated content--e.g., for the early detection of outbreaks or
for extracting personal observations--often suffers from the lack of enough
training data, short document length, and informal language model. We propose a
novel multi-view active learning model, called Context-aware Co-testing with
Bagging (COCOBA), to address these issues in the classification tasks tailored
for a query word--e.g., detecting illness reports given the disease name.
COCOBA employs the context of user postings to construct two views. Then it
uses the distribution of the representations in each view to detect the regions
that are assigned to the opposite classes. This effectively leads to detecting
the contexts that the two base learners disagree on. Our model also employs a
query-by-committee model to address the usually noisy language of user
postings. The experiments testify that our model is applicable to multiple
important representative Twitter tasks and also significantly outperforms the
existing baselines.
- Abstract(参考訳): 例えば、アウトブレイクの早期発見や個人的観察の抽出など、ユーザ生成コンテンツのマイニングは、十分なトレーニングデータ、短い文書の長さ、非公式な言語モデルが不足している。
そこで,本研究では,多視点能動学習モデル(Context-aware Co-testing with Bagging (COCOBA))を提案する。
COCOBAは2つのビューを構築するためにユーザ投稿のコンテキストを利用する。
次に、各ビューにおける表現の分布を使用して、反対のクラスに割り当てられた領域を検出する。
これにより、2人のベース学習者が同意しないコンテキストを効果的に検出する。
また,提案モデルでは,ユーザ投稿のノイズの多い言語に対応するために,コミュニティによる問合せモデルも採用している。
実験では、このモデルが複数の重要なtwitterタスクに適用可能であること、および既存のベースラインを大きく上回っていることを検証した。
関連論文リスト
- Adapting Dual-encoder Vision-language Models for Paraphrased Retrieval [55.90407811819347]
モデルが類似した結果を返すことを目的とした,パラフレーズ付きテキスト画像検索の課題について考察する。
我々は、大きなテキストコーパスで事前訓練された言語モデルから始まる二重エンコーダモデルを訓練する。
CLIPやOpenCLIPのような公開デュアルエンコーダモデルと比較して、最高の適応戦略で訓練されたモデルは、パラフレーズクエリのランク付けの類似性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-06T06:30:17Z) - In-Context Learning for Text Classification with Many Labels [34.87532045406169]
多くのラベルを持つタスクに対して大きな言語モデルを用いたインコンテキスト学習(ICL)は、コンテキストウィンドウが限られているため困難である。
我々は、この制限を回避するために、事前訓練された高密度検索モデルを使用する。
我々は、コンテキスト内サンプルの数と異なるモデルスケールのパフォーマンスを分析します。
論文 参考訳(メタデータ) (2023-09-19T22:41:44Z) - Towards Open Vocabulary Learning: A Survey [146.90188069113213]
ディープニューラルネットワークは,セグメンテーションやトラッキング,検出といった,さまざまなコアタスクにおいて,目覚ましい進歩を遂げている。
近年、視覚言語事前学習の急速な進歩により、オープンな語彙設定が提案されている。
本稿では,その分野における最近の発展を要約し分析し,オープンな語彙学習の徹底的なレビューを行う。
論文 参考訳(メタデータ) (2023-06-28T02:33:06Z) - DAMO-NLP at SemEval-2023 Task 2: A Unified Retrieval-augmented System
for Multilingual Named Entity Recognition [94.90258603217008]
MultiCoNER RNum2共有タスクは、細粒度でノイズの多いシナリオにおいて、多言語の名前付きエンティティ認識(NER)に取り組むことを目的としている。
MultiCoNER RNum1の以前のトップシステムは、ナレッジベースまたはガゼッタを組み込んでいる。
細粒度多言語NERのための統一検索拡張システム(U-RaNER)を提案する。
論文 参考訳(メタデータ) (2023-05-05T16:59:26Z) - Multi-Modal Few-Shot Object Detection with Meta-Learning-Based
Cross-Modal Prompting [77.69172089359606]
本稿では,マルチモーダルな複数ショットオブジェクト検出(FSOD)について,少数ショット視覚例とクラスセマンティック情報の両方を用いて検討する。
我々のアプローチは、(メトリックベース)メタラーニングとプロンプトベースラーニングの高レベルな概念的類似性によって動機付けられている。
提案するマルチモーダルFSODモデルを,複数の複数ショットオブジェクト検出ベンチマークで総合的に評価し,有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-16T16:45:06Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Words aren't enough, their order matters: On the Robustness of Grounding
Visual Referring Expressions [87.33156149634392]
視覚的参照表現認識のための標準ベンチマークであるRefCOgを批判的に検討する。
83.7%のケースでは言語構造に関する推論は不要である。
比較学習とマルチタスク学習の2つの手法を提案し,ViLBERTのロバスト性を高める。
論文 参考訳(メタデータ) (2020-05-04T17:09:15Z) - MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning [16.88648782206587]
本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
論文 参考訳(メタデータ) (2020-04-13T08:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。