論文の概要: Acoustic span embeddings for multilingual query-by-example search
- arxiv url: http://arxiv.org/abs/2011.11807v1
- Date: Tue, 24 Nov 2020 00:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:01:16.756645
- Title: Acoustic span embeddings for multilingual query-by-example search
- Title(参考訳): 多言語検索のための音響スパン埋め込み
- Authors: Yushi Hu, Shane Settle, and Karen Livescu
- Abstract要約: 低リソースまたはゼロリソース設定では、QbE検索は動的時間ワープ(DTW)に基づくアプローチで対処されることが多い。
近年の研究では、音響単語埋め込み(AWE)に基づく手法は、性能と探索速度の両方を改善することが判明している。
我々は、AWEトレーニングを単語のスパンに一般化し、音響スパン埋め込み(ASE)を生成し、複数の未知言語における任意の長さのクエリへのAWEの適用について検討する。
- 参考スコア(独自算出の注目度): 20.141444548841047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Query-by-example (QbE) speech search is the task of matching spoken queries
to utterances within a search collection. In low- or zero-resource settings,
QbE search is often addressed with approaches based on dynamic time warping
(DTW). Recent work has found that methods based on acoustic word embeddings
(AWEs) can improve both performance and search speed. However, prior work on
AWE-based QbE has primarily focused on English data and with single-word
queries. In this work, we generalize AWE training to spans of words, producing
acoustic span embeddings (ASE), and explore the application of ASE to QbE with
arbitrary-length queries in multiple unseen languages. We consider the commonly
used setting where we have access to labeled data in other languages (in our
case, several low-resource languages) distinct from the unseen test languages.
We evaluate our approach on the QUESST 2015 QbE tasks, finding that
multilingual ASE-based search is much faster than DTW-based search and
outperforms the best previously published results on this task.
- Abstract(参考訳): query-by-example (qbe) 音声検索は、音声クエリと検索コレクション内の発話をマッチングするタスクである。
低リソースまたはゼロリソース設定では、QbE検索は動的時間ワープ(DTW)に基づくアプローチで対処されることが多い。
最近の研究によると、音響ワード埋め込み(awes)に基づく手法は、性能と検索速度の両方を改善することができる。
しかしながら、AWEベースのQbEに関する以前の研究は、主に英語のデータとシングルワードクエリに焦点を当てていた。
本研究では,AWEトレーニングを単語のスパンに一般化し,音響的スパン埋め込み(ASE)を生成し,任意の長さのクエリを複数の未知言語でQbEに適用する方法について検討する。
私たちは、他の言語(この場合、いくつかの低リソース言語)でラベル付きデータにアクセス可能な一般的な設定について検討しています。
我々は、QUESST 2015 QbEタスクに対する我々のアプローチを評価し、多言語ASEベースの検索がDTWベースの検索よりもはるかに高速であることを発見し、このタスクで発表された最も優れた結果を上回った。
関連論文リスト
- Effective and Efficient Conversation Retrieval for Dialogue State
Tracking with Implicit Text Summaries [51.11997829609478]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - End-to-End Open Vocabulary Keyword Search With Multilingual Neural
Representations [7.780766187171571]
競合性能を実現するニューラルネットワークによるASRフリーキーワード検索モデルを提案する。
本研究は,多言語事前学習と詳細なモデル解析により拡張する。
実験の結果,提案した多言語学習はモデルの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-08-15T20:33:25Z) - Evaluating Embedding APIs for Information Retrieval [51.24236853841468]
ドメインの一般化と多言語検索における既存のセマンティック埋め込みAPIの機能を評価する。
BM25の結果をAPIを使って再ランク付けすることは、予算に優しいアプローチであり、英語でもっとも効果的である。
非英語検索では、再ランク付けは結果を改善するが、BM25のハイブリッドモデルは高いコストで機能する。
論文 参考訳(メタデータ) (2023-05-10T16:40:52Z) - Effective and Efficient Query-aware Snippet Extraction for Web Search [61.60405035952961]
本稿では,DeepQSE という名前の効率的なクエリ対応 Web ページスニペット抽出手法を提案する。
DeepQSEはまず各文に対するクエリ対応の文表現を学習し、クエリと文間の微妙な関連性をキャプチャする。
本稿では,DeepQSEの効率的なバージョンであるEfficient-DeepQSEを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:46:17Z) - Searching for Better Database Queries in the Outputs of Semantic Parsers [16.221439565760058]
本稿では,テスト時に生成したクエリを評価する外部基準にアクセスできる場合を考える。
クエリがエラーなしに実行されることをチェックすることから、一連のテストでクエリを検証することまで、その基準は様々である。
我々は、最先端のセマンティクスにアプローチを適用し、異なるデータセットですべてのテストを通過する多くのクエリを見つけることができると報告します。
論文 参考訳(メタデータ) (2022-10-13T17:20:45Z) - Graph Enhanced BERT for Query Understanding [55.90334539898102]
クエリ理解は、ユーザの検索意図を探索し、ユーザが最も望まれる情報を発見できるようにする上で、重要な役割を果たす。
近年、プレトレーニング言語モデル (PLM) は様々な自然言語処理タスクを進歩させてきた。
本稿では,クエリコンテンツとクエリグラフの両方を活用可能な,グラフ強化事前学習フレームワークGE-BERTを提案する。
論文 参考訳(メタデータ) (2022-04-03T16:50:30Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z) - Unbiased Sentence Encoder For Large-Scale Multi-lingual Search Engines [0.0]
本稿では,クエリおよび文書エンコーダとして検索エンジンで使用可能な多言語文エンコーダを提案する。
この埋め込みにより、クエリとドキュメント間のセマンティックな類似性スコアが可能になり、ドキュメントのランク付けと関連性において重要な機能となる。
論文 参考訳(メタデータ) (2021-03-01T07:19:16Z) - ColloQL: Robust Cross-Domain Text-to-SQL Over Search Queries [10.273545005890496]
データ拡張技術とサンプリングベースコンテンツ対応BERTモデル(ColloQL)を紹介する。
ColloQLは、Wikilogicalデータセット上で84.9%(実行)と90.7%(実行)の精度を達成する。
論文 参考訳(メタデータ) (2020-10-19T23:53:17Z) - LAReQA: Language-agnostic answer retrieval from a multilingual pool [29.553907688813347]
LAReQAによる言語間アライメントの「強い」テスト。
機械翻訳による学習データの増強は効果的であることがわかった。
この発見は、言語に依存しない検索は、言語間評価の実質的な新しいタイプである、という我々の主張を裏付けるものである。
論文 参考訳(メタデータ) (2020-04-11T20:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。