論文の概要: Intuitive Access to Smartphone Settings Using Relevance Model Trained by
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2307.09177v1
- Date: Sat, 15 Jul 2023 08:18:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 15:03:06.417946
- Title: Intuitive Access to Smartphone Settings Using Relevance Model Trained by
Contrastive Learning
- Title(参考訳): コントラスト学習による関係モデルを用いたスマートフォン設定の直観的アクセス
- Authors: Joonyoung Kim, Kangwook Lee, Haebin Shin, Hurnjoo Lee, Sechun Kang,
Byunguk Choi, Dong Shin, Joohyung Lee
- Abstract要約: 本稿では,直感的・文脈的検索クエリを受け入れるモバイル機能検索システムを提案する。
我々は、クエリ埋め込みとインデックス付きモバイル機能の間の文脈的関連性を知覚するために、事前訓練された言語モデルからのコントラスト学習を通じて関連モデルを訓練した。
- 参考スコア(独自算出の注目度): 7.999822329997281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The more new features that are being added to smartphones, the harder it
becomes for users to find them. This is because the feature names are usually
short, and there are just too many to remember. In such a case, the users may
want to ask contextual queries that describe the features they are looking for,
but the standard term frequency-based search cannot process them. This paper
presents a novel retrieval system for mobile features that accepts intuitive
and contextual search queries. We trained a relevance model via contrastive
learning from a pre-trained language model to perceive the contextual relevance
between query embeddings and indexed mobile features. Also, to make it run
efficiently on-device using minimal resources, we applied knowledge
distillation to compress the model without degrading much performance. To
verify the feasibility of our method, we collected test queries and conducted
comparative experiments with the currently deployed search baselines. The
results show that our system outperforms the others on contextual sentence
queries and even on usual keyword-based queries.
- Abstract(参考訳): スマートフォンに追加される新機能が増えれば増えるほど、ユーザーはそれらを見つけるのが難しくなる。
これは、機能名は通常短く、覚えておくべき数が多すぎるためです。
このような場合、ユーザは、探している機能を記述したコンテキストクエリを尋ねるかもしれませんが、標準用語である周波数ベースの検索はそれを処理できません。
本稿では,直感的・文脈的検索クエリを受け入れるモバイル機能検索システムを提案する。
私たちは,事前学習した言語モデルからのコントラスト学習を通じて関連性モデルを訓練し,クエリ埋め込みとインデックス付きモバイル機能とのコンテキスト的関連性を把握した。
また,最小限の資源を用いてデバイス上で効率的に動作させるため,知識蒸留を適用し,性能を劣化させることなくモデルを圧縮した。
提案手法の有効性を検証するため,テストクエリを収集し,現在デプロイされている検索ベースラインとの比較実験を行った。
その結果,本システムは文脈文クエリや通常のキーワードベースのクエリよりも優れていることがわかった。
関連論文リスト
- QueryBuilder: Human-in-the-Loop Query Development for Information Retrieval [12.543590253664492]
我々は、$textitQueryBuilder$という、インタラクティブな新しいシステムを提示します。
初心者の英語を話すユーザは、少量の労力でクエリを作成できる。
ユーザの情報要求に応じた言語間情報検索クエリを迅速に開発する。
論文 参考訳(メタデータ) (2024-09-07T00:46:58Z) - Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - Query-oriented Data Augmentation for Session Search [71.84678750612754]
本稿では,検索ログの強化とモデリングの強化を目的としたクエリ指向データ拡張を提案する。
検索コンテキストの最も重要な部分を変更することで補足的なトレーニングペアを生成する。
我々は、現在のクエリを変更するためのいくつかの戦略を開発し、その結果、様々な難易度で新しいトレーニングデータを得る。
論文 参考訳(メタデータ) (2024-07-04T08:08:33Z) - ExcluIR: Exclusionary Neural Information Retrieval [74.08276741093317]
本稿では,排他的検索のためのリソースセットであるExcluIRを提案する。
評価ベンチマークには3,452の高品質な排他的クエリが含まれている。
トレーニングセットには70,293の排他的クエリが含まれており、それぞれに正のドキュメントと負のドキュメントがペアリングされている。
論文 参考訳(メタデータ) (2024-04-26T09:43:40Z) - Learning to Relate to Previous Turns in Conversational Search [26.931718474500652]
検索効率を改善する効果的な方法は、現在のクエリを履歴クエリで拡張することである。
本稿では,現在のクエリに有用な履歴クエリを選択するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-05T03:00:10Z) - End-to-end Knowledge Retrieval with Multi-modal Queries [50.01264794081951]
ReMuQは、テキストと画像のクエリからコンテンツを統合することで、大規模なコーパスから知識を取得するシステムを必要とする。
本稿では,入力テキストや画像を直接処理し,関連する知識をエンドツーエンドで検索する検索モデルReViz'を提案する。
ゼロショット設定下での2つのデータセットの検索において,優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-01T08:04:12Z) - Description-Based Text Similarity [59.552704474862004]
我々は、その内容の抽象的な記述に基づいて、テキストを検索する必要性を特定する。
そこで本研究では,近隣の標準探索で使用する場合の精度を大幅に向上する代替モデルを提案する。
論文 参考訳(メタデータ) (2023-05-21T17:14:31Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Connecting Images through Time and Sources: Introducing Low-data,
Heterogeneous Instance Retrieval [3.6526118822907594]
バリエーションやセマンティックな内容のパネルによく反応する機能を選択するのは簡単ではないことを示す。
Alegoriaベンチマークの新しい拡張バージョンを導入し、詳細なアノテーションを使って記述子を比較します。
論文 参考訳(メタデータ) (2021-03-19T10:54:51Z) - Deep Search Query Intent Understanding [17.79430887321982]
本稿では,検索の異なる段階における問合せ意図をモデル化するための総合的な学習フレームワークの提供を目的とする。
我々は,1) 文字レベルモデルを用いたタイプアヘッド検索において,入力したユーザの意図をオンザフライで予測すること,2) 完全クエリのための正確な単語レベルの意図予測モデルに焦点をあてる。
論文 参考訳(メタデータ) (2020-08-15T18:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。