論文の概要: NeuralSearchX: Serving a Multi-billion-parameter Reranker for
Multilingual Metasearch at a Low Cost
- arxiv url: http://arxiv.org/abs/2210.14837v1
- Date: Wed, 26 Oct 2022 16:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 16:11:49.334608
- Title: NeuralSearchX: Serving a Multi-billion-parameter Reranker for
Multilingual Metasearch at a Low Cost
- Title(参考訳): NeuralSearchX: マルチ言語メタ検索のためのマルチビリオンパラメータリランカを低コストで実現
- Authors: Thales Sales Almeida, Thiago Laitz, Jo\~ao Ser\'odio, Luiz Henrique
Bonifacio, Roberto Lotufo, Rodrigo Nogueira
- Abstract要約: 検索結果をマージし、文章をハイライトする多目的大規模階調モデルに基づくメタサーチエンジンであるNeuralSearchXについて述べる。
我々の設計選択は、幅広い公開ベンチマークで最先端の結果に近づきながら、競争力のあるQPSを備えたよりコスト効率の高いシステムに繋がったことを示す。
- 参考スコア(独自算出の注目度): 4.186775801993103
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread availability of search API's (both free and commercial) brings
the promise of increased coverage and quality of search results for metasearch
engines, while decreasing the maintenance costs of the crawling and indexing
infrastructures. However, merging strategies frequently comprise complex
pipelines that require careful tuning, which is often overlooked in the
literature. In this work, we describe NeuralSearchX, a metasearch engine based
on a multi-purpose large reranking model to merge results and highlight
sentences. Due to the homogeneity of our architecture, we could focus our
optimization efforts on a single component. We compare our system with
Microsoft's Biomedical Search and show that our design choices led to a much
cost-effective system with competitive QPS while having close to
state-of-the-art results on a wide range of public benchmarks. Human evaluation
on two domain-specific tasks shows that our retrieval system outperformed
Google API by a large margin in terms of nDCG@10 scores. By describing our
architecture and implementation in detail, we hope that the community will
build on our design choices. The system is available at
https://neuralsearchx.nsx.ai.
- Abstract(参考訳): 検索API(無料と商用の両方)が広く利用可能になったことにより、メタサーチエンジンの検索結果のカバレッジと品質が向上し、クローリングとインデックス化のインフラのメンテナンスコストが低下する。
しかしながら、マージ戦略はしばしば注意深いチューニングを必要とする複雑なパイプラインで構成されており、文献では見過ごされることが多い。
本稿では,検索結果をマージし,文章をハイライトする多目的大規模格付けモデルに基づくメタサーチエンジンであるNeuralSearchXについて述べる。
アーキテクチャの均質性のため、最適化の取り組みをひとつのコンポーネントに集中することが可能です。
われわれのシステムとMicrosoftのバイオメディカルサーチを比較して、我々の設計選択が競争力のあるQPSを持つよりコスト効率の高いシステムに繋がったことを示し、幅広い公開ベンチマークで最先端の結果に近づいた。
ドメイン固有の2つのタスクに対する人間による評価は,検索システムがnDCG@10スコアにおいて,Google APIよりも優れていたことを示している。
アーキテクチャと実装の詳細を説明することで、コミュニティがデザインの選択に基づいて構築されることを願っています。
このシステムはhttps://neuralsearchx.nsx.aiで利用可能である。
関連論文リスト
- Pareto-aware Neural Architecture Generation for Diverse Computational
Budgets [94.27982238384847]
既存の手法は、しばしば各目標予算に対して独立したアーキテクチャ探索プロセスを実行する。
提案するニューラルアーキテクチャジェネレータ(PNAG)は,任意の予算に対して,推論によって最適なアーキテクチャを動的に生成する。
このような共同探索アルゴリズムは、全体の検索コストを大幅に削減するだけでなく、結果も改善する。
論文 参考訳(メタデータ) (2022-10-14T08:30:59Z) - Machine Translation Decoding beyond Beam Search [43.27883368285612]
ビームサーチは自動回帰機械翻訳モデルの復号化手法である。
我々の目標は、ビームサーチがより強力な計量駆動サーチ技術に置き換えられるかどうかを確かめることである。
モンテカルロ木探索(mcts)に基づく手法を導入し,その競合性を示す。
論文 参考訳(メタデータ) (2021-04-12T10:28:17Z) - One-Shot Neural Ensemble Architecture Search by Diversity-Guided Search
Space Shrinking [97.60915598958968]
本稿では,この2つの課題に対処するワンショットニューラルアンサンブルアーキテクチャサーチ(NEAS)ソリューションを提案する。
最初の課題として,探索空間の縮小を導くために,多様性に基づく新しい指標を導入する。
第2の課題として,異なるモデル間の階層共有を効率向上のために学習する新たな探索次元を実現する。
論文 参考訳(メタデータ) (2021-04-01T16:29:49Z) - Towards Improving the Consistency, Efficiency, and Flexibility of
Differentiable Neural Architecture Search [84.4140192638394]
最も微分可能なニューラルアーキテクチャ探索法は、探索用のスーパーネットを構築し、そのサブグラフとしてターゲットネットを導出する。
本稿では,エンジンセルとトランジットセルからなるEnTranNASを紹介する。
また,検索処理の高速化を図るため,メモリや計算コストの削減も図っている。
論文 参考訳(メタデータ) (2021-01-27T12:16:47Z) - DiffMG: Differentiable Meta Graph Search for Heterogeneous Graph Neural
Networks [45.075163625895286]
我々はメタグラフを探索し、メタパスよりも複雑なセマンティック関係をキャプチャし、グラフニューラルネットワークが異なるタイプのエッジに沿ってメッセージを伝播する方法を決定する。
我々は、HINの候補メタグラフを表すために、有向非巡回グラフ(DAG)の形式で表現型検索空間を設計する。
本稿では,1回のGNNトレーニングに匹敵する検索コストを1対1に抑えるための,新しい効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:09:29Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Fine-Grained Stochastic Architecture Search [6.277767522867666]
Fine-Grained Architecture Search (FiGS) は、より大きな候補アーキテクチャの集合を探索する微分可能な検索手法である。
FiGSは、構造化スパース正規化ペナルティを適用して、検索空間内の演算子を同時に選択・変更する。
既存の3つの検索空間にまたがって結果を示し、元の検索アルゴリズムのマッチングや性能を向上する。
論文 参考訳(メタデータ) (2020-06-17T01:04:14Z) - Deep-n-Cheap: An Automated Search Framework for Low Complexity Deep
Learning [3.479254848034425]
私たちはディープラーニングモデルを探すためのオープンソースのAutoMLフレームワークであるDeep-n-Cheapを紹介します。
私たちのフレームワークは、ベンチマークとカスタムデータセットの両方へのデプロイをターゲットとしています。
Deep-n-Cheapには、トレーニング時間やパラメータ数とパフォーマンスをトレードオフする、ユーザ管理可能な複雑性ペナルティが含まれている。
論文 参考訳(メタデータ) (2020-03-27T13:00:21Z) - AutoSTR: Efficient Backbone Search for Scene Text Recognition [80.7290173000068]
テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
テキスト認識性能を向上させるために,データ依存のバックボーンを検索するための自動STR(AutoSTR)を提案する。
実験によると、データ依存のバックボーンを検索することで、AutoSTRは標準ベンチマークにおける最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2020-03-14T06:51:04Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。