論文の概要: Weak Supervision for Improved Precision in Search Systems
- arxiv url: http://arxiv.org/abs/2503.07025v1
- Date: Mon, 10 Mar 2025 08:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:46.576408
- Title: Weak Supervision for Improved Precision in Search Systems
- Title(参考訳): 検索システムにおける精度向上のための弱みシミュレーション
- Authors: Sriram Vasudevan,
- Abstract要約: 本稿では,クエリとドキュメントのペアの品質を推定するための弱い監視手法を提案する。
大規模検索システムの精度を高めるために,ラーニング・トゥ・ランク・フレームワークに応用する。
- 参考スコア(独自算出の注目度): 1.5773159234875098
- License:
- Abstract: Labeled datasets are essential for modern search engines, which increasingly rely on supervised learning methods like Learning to Rank and massive amounts of data to power deep learning models. However, creating these datasets is both time-consuming and costly, leading to the common use of user click and activity logs as proxies for relevance. In this paper, we present a weak supervision approach to infer the quality of query-document pairs and apply it within a Learning to Rank framework to enhance the precision of a large-scale search system.
- Abstract(参考訳): ラベル付きデータセットは、ディープラーニングモデルを動かすために、Learning to Rankや大量のデータといった教師付き学習手法にますます依存している、現代の検索エンジンにとって不可欠である。
しかし、これらのデータセットの作成には時間と費用がかかるため、ユーザクリックとアクティビティログを関連するプロキシとして使用するのが一般的である。
本稿では,クエリとドキュメントのペアの品質を推定し,大規模検索システムの精度を高めるために,Learning to Rankフレームワークに適用するための弱い監視手法を提案する。
関連論文リスト
- Meta Learning to Rank for Sparsely Supervised Queries [10.422527051110526]
多くの現実世界の検索と検索のシナリオでは、監視信号は簡単には利用できないかもしれないし、いくつかのクエリを入手するのにコストがかかるかもしれない。
本稿では,メタラーニングの高速学習と適応能力を活用した新しいメタラーニング手法を提案する。
提案手法は,新しいクエリがトレーニングクエリと異なる特性を持つ場合,特に有益である。
論文 参考訳(メタデータ) (2024-09-29T04:24:38Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Deep learning for table detection and structure recognition: A survey [49.09628624903334]
本調査の目的は,テーブル検出の分野での大きな進展を深く理解することである。
この分野における古典的アプリケーションと新しいアプリケーションの両方について分析する。
既存のモデルのデータセットとソースコードは、読者にこの膨大な文献のコンパスを提供するために組織されている。
論文 参考訳(メタデータ) (2022-11-15T19:42:27Z) - Evaluating and Crafting Datasets Effective for Deep Learning With Data
Maps [0.0]
大規模なデータセットのトレーニングには、過剰なシステムリソースと実現不可能な時間を要することが多い。
教師付き学習では、大規模なデータセットはサンプルを手動でラベル付けするのにより多くの時間を必要とする。
そこで本研究では,初期のトレーニングセッションの後に,分散モデルの精度に匹敵する精度で,より小さなデータセットをキュレートする手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T03:30:18Z) - Retrieval-Enhanced Machine Learning [110.5237983180089]
本稿では,いくつかの既存モデルを含む汎用的な検索強化機械学習フレームワークについて述べる。
REMLは情報検索の慣例に挑戦し、最適化を含む中核領域における新たな進歩の機会を提示している。
REMLリサーチアジェンダは、情報アクセス研究の新しいスタイルの基礎を築き、機械学習と人工知能の進歩への道を開く。
論文 参考訳(メタデータ) (2022-05-02T21:42:45Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - Online feature selection for rapid, low-overhead learning in networked
systems [0.0]
我々は、多数の利用可能なデータソースから小さな機能セットを選択する、OSFSと呼ばれるオンラインアルゴリズムを提案する。
OSFSは、データソース数を桁違いに削減するために、数百の計測を必要とする。
論文 参考訳(メタデータ) (2020-10-28T12:00:42Z) - AutoOD: Automated Outlier Detection via Curiosity-guided Search and
Self-imitation Learning [72.99415402575886]
外乱検出は重要なデータマイニングの課題であり、多くの実用的応用がある。
本稿では,最適なニューラルネットワークモデルを探すことを目的とした自動外乱検出フレームワークであるAutoODを提案する。
さまざまな実世界のベンチマークデータセットに対する実験結果から、AutoODが特定したディープモデルが最高のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-06-19T18:57:51Z) - Modeling Document Interactions for Learning to Rank with Regularized
Self-Attention [22.140197412459393]
自己注意に基づくニューラルネットワークと相互作用する文書のモデリングについて検討する。
文書間の相互作用をモデル化するために設計された,単純かつ効果的な正規化用語を提案する。
提案した正規化項による自己注意ネットワークのトレーニングは,既存の学習方法よりも格付けに優れることを示す。
論文 参考訳(メタデータ) (2020-05-08T09:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。