論文の概要: QUERT: Continual Pre-training of Language Model for Query Understanding
in Travel Domain Search
- arxiv url: http://arxiv.org/abs/2306.06707v1
- Date: Sun, 11 Jun 2023 15:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:18:17.388900
- Title: QUERT: Continual Pre-training of Language Model for Query Understanding
in Travel Domain Search
- Title(参考訳): quert: 旅行ドメイン検索におけるクエリ理解のための言語モデルの継続的な事前学習
- Authors: Jian Xie, Yidan Liang, Jingping Liu, Yanghua Xiao, Baohua Wu, Shenghua
Ni
- Abstract要約: 旅行ドメイン探索におけるQUERy理解のための継続事前学習型言語モデルQUERTを提案する。
Quertは、旅行ドメイン検索におけるクエリの特徴に対して、4つの調整済み事前訓練タスクで共同で訓練されている。
オンラインビジネスにおけるQUERTの改善を確認するため、QUERTをデプロイし、Fliggy APP上でA/Bテストを実施します。
- 参考スコア(独自算出の注目度): 15.026682829320261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In light of the success of the pre-trained language models (PLMs), continual
pre-training of generic PLMs has been the paradigm of domain adaption. In this
paper, we propose QUERT, A Continual Pre-trained Language Model for QUERy
Understanding in Travel Domain Search. QUERT is jointly trained on four
tailored pre-training tasks to the characteristics of query in travel domain
search: Geography-aware Mask Prediction, Geohash Code Prediction, User Click
Behavior Learning, and Phrase and Token Order Prediction. Performance
improvement of downstream tasks and ablation experiment demonstrate the
effectiveness of our proposed pre-training tasks. To be specific, the average
performance of downstream tasks increases by 2.02% and 30.93% in supervised and
unsupervised settings, respectively. To check on the improvement of QUERT to
online business, we deploy QUERT and perform A/B testing on Fliggy APP. The
feedback results show that QUERT increases the Unique Click-Through Rate and
Page Click-Through Rate by 0.89% and 1.03% when applying QUERT as the encoder.
Our code and downstream task data will be released for future research.
- Abstract(参考訳): プレトレーニング言語モデル(PLM)の成功を踏まえ、汎用PLMの継続的な事前トレーニングがドメイン適応のパラダイムとなっている。
本稿では,旅行ドメイン探索におけるQUERy理解のための継続事前学習型言語モデルQUERTを提案する。
quertは、トラベルドメイン検索におけるクエリの特徴である地理認識マスク予測、ジオハッシュコード予測、ユーザークリック行動学習、フレーズとトークン順序予測の4つの事前学習タスクで共同で訓練されている。
下流タスクとアブレーション実験の性能改善は,提案した事前学習タスクの有効性を示す。
具体的には、ダウンストリームタスクの平均パフォーマンスは、教師なしと教師なしの設定でそれぞれ2.02%と30.93%向上する。
オンラインビジネスにおけるQUERTの改善を確認するため、QUERTをデプロイし、Fliggy APP上でA/Bテストを実施します。
フィードバックの結果,QUERTをエンコーダとして適用した場合,QUERTはユニーククリックスルーレートとページクリックスルーレートを0.89%,1.03%増加させることがわかった。
私たちのコードと下流のタスクデータは、将来の研究のためにリリースされます。
関連論文リスト
- Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Value Explicit Pretraining for Learning Transferable Representations [11.069853883599102]
本稿では,伝達強化学習のための一般化可能な表現を学習する手法を提案する。
我々は、目的条件付き表現のためのエンコーダを学習することで、前回学習したタスクと同様の目的を共有する新しいタスクを学ぶ。
現実的なナビゲーションシミュレータとAtariベンチマークを用いて実験したところ,本手法により生成された事前学習エンコーダは,現在のSoTA事前学習法より優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-19T17:12:35Z) - Self-supervised Adaptive Pre-training of Multilingual Speech Models for
Language and Dialect Identification [19.893213508284813]
目標領域や下流タスクの言語に事前学習モデルを適用するために,自己教師付き適応型事前学習を提案する。
SPTはFLEURSベンチマークのXLSR性能を向上し、表現不足言語では40.1%まで向上することを示した。
論文 参考訳(メタデータ) (2023-12-12T14:58:08Z) - Masked Path Modeling for Vision-and-Language Navigation [41.7517631477082]
ヴィジュアル・アンド・ランゲージ・ナビゲーション(VLN)エージェントは、自然言語の指示に従うことで現実世界の環境をナビゲートするように訓練されている。
以前のアプローチでは、トレーニング中に追加の監督を導入することでこの問題に対処しようと試みていた。
本稿では,下流ナビゲーションタスクに自己コンパイルデータを用いてエージェントを事前訓練する,マスク付きパスモデリング(MPM)手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T17:20:20Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask
Training [55.43088293183165]
近年の研究では、BERTのような事前学習言語モデル(PLM)には、元のPLMと同じような変換学習性能を持つマッチングワークが含まれていることが示されている。
本稿では, BERTworksがこれらの研究で示された以上の可能性を秘めていることを示す。
我々は、サブネットワークの普遍的な転送可能性を維持することを目的として、事前学習タスクのモデル重みよりも二項マスクを訓練する。
論文 参考訳(メタデータ) (2022-04-24T08:42:47Z) - ELLE: Efficient Lifelong Pre-training for Emerging Data [91.52652408402815]
現在の訓練済み言語モデル(PLM)は、静的なデータでトレーニングされるが、現実のシナリオでは、様々なソースのストリーミングデータが継続的に成長する可能性がある。
新興データに対する効率的な生涯事前学習を目的としたELLEを提案する。
ELLEは,(1)既存のPLMの幅と深さを柔軟に拡張して知識獲得の効率を向上する機能保持モデル展開と,(2)事前学習時に学習した多目的知識を混乱させ,下流タスクの適切な知識を刺激する事前学習ドメインプロンプトから構成される。
論文 参考訳(メタデータ) (2022-03-12T01:53:53Z) - Knowledge Transfer by Discriminative Pre-training for Academic
Performance Prediction [5.3431413737671525]
本稿では,学業成績予測のための差別的事前学習タスクを用いた転帰学習フレームワークであるDPAを提案する。
従来の最先端生成事前学習法と比較して、DPAはよりサンプリング効率が良く、より低いアカデミック性能予測誤差に迅速に収束する。
論文 参考訳(メタデータ) (2021-06-28T13:02:23Z) - Don't Stop Pretraining: Adapt Language Models to Domains and Tasks [81.99843216550306]
バイオメディカルおよびコンピュータサイエンスの出版物、ニュース、レビュー)と8つの分類タスクについて調査する。
ドメイン内の事前トレーニング(ドメイン適応型事前トレーニング)の第2フェーズでは、パフォーマンスが向上する。
タスクの未ラベルデータ(タスク適応事前トレーニング)に適応することで、ドメイン適応事前トレーニング後のパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-04-23T04:21:19Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。