論文の概要: Prompt-Based Document Modifications In Ranking Competitions
- arxiv url: http://arxiv.org/abs/2502.07315v1
- Date: Tue, 11 Feb 2025 07:25:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:05:44.980240
- Title: Prompt-Based Document Modifications In Ranking Competitions
- Title(参考訳): ランク付け競争におけるプロンプトベースの文書修正
- Authors: Niv Bardas, Tommy Mordo, Oren Kurland, Moshe Tennenholtz, Gal Zur,
- Abstract要約: 本研究では,言語モデル (LLM) を用いたプロンプトベースの文書編集手法について検討した。
これまでのランキングコンペティションやコンペティションでボットとしてデプロイすることで、私たちのアプローチを評価します。
- 参考スコア(独自算出の注目度): 10.757199109227175
- License:
- Abstract: We study prompting-based approaches with Large Language Models (LLMs) for modifying documents so as to promote their ranking in a competitive search setting. Our methods are inspired by prior work on leveraging LLMs as rankers. We evaluate our approach by deploying it as a bot in previous ranking competitions and in competitions we organized. Our findings demonstrate that our approach effectively improves document ranking while preserving high levels of faithfulness to the original content and maintaining overall document quality.
- Abstract(参考訳): 本研究では,言語モデル (LLM) を用いたプロンプトベースの文書編集手法について検討した。
提案手法は,LLMをローダとして活用するための先行研究から着想を得たものである。
これまでのランキングコンペティションやコンペティションでボットとしてデプロイすることで、私たちのアプローチを評価します。
その結果,本手法は,オリジナルコンテンツへの忠実度を高く保ち,文書の質を保ちながら,文書のランク付けを効果的に向上することを示した。
関連論文リスト
- CSP: A Simulator For Multi-Agent Ranking Competitions [10.757199109227175]
ランキングコンペティションでは、文書作者は過去のランキングに反応してコンテンツを変更することで、最高のランキングを競う。
生成AIの台頭、特にLarge Language Models(LLMs)は、文書作成者としてLLMを使用するという新しいパラダイムを導入している。
このアプローチは、人間による競争におけるスケーラビリティの制約に対処し、ウェブ上でのLLM生成コンテンツの役割の増大を反映している。
論文 参考訳(メタデータ) (2025-02-16T16:56:15Z) - Multi-Layer Ranking with Large Language Models for News Source Recommendation [20.069181633869093]
我々はNewsQuoteと呼ばれる新しいデータセットを構築し、ニュース記事の収集から得られた23,571の引用話者ペアで構成されています。
我々は,特定のクエリに関連付けられる可能性に基づいて,専門家の検索として推薦タスクを定式化する。
この結果から,テキスト内学習に基づくLLMランキングと多層ランキングに基づくフィルタを用いることで,推薦システムの予測品質と行動品質を著しく向上することがわかった。
論文 参考訳(メタデータ) (2024-06-17T17:02:34Z) - Generating Natural Language Queries for More Effective Systematic Review
Screening Prioritisation [53.77226503675752]
現在の技術状況では、レビューの最終タイトルをクエリとして、BERTベースのニューラルランクラを使用してドキュメントのランク付けに使用しています。
本稿では,ChatGPT や Alpaca などの命令ベース大規模言語モデルによって生成される文書の検索に使用される Boolean クエリやクエリなど,スクリーニングを優先するクエリの代替源について検討する。
私たちのベストアプローチは、スクリーニング時に利用可能な情報に基づいて実現されるだけでなく、最終タイトルと同じような効果があります。
論文 参考訳(メタデータ) (2023-09-11T05:12:14Z) - Hybrid Retrieval and Multi-stage Text Ranking Solution at TREC 2022 Deep
Learning Track [22.81602641419962]
本稿では,ハイブリッドテキスト検索と多段階テキストランキング法について解説する。
ランキング段階では,大規模な事前学習言語モデルに基づく対話型ランキングモデルに加えて,軽量なサブランクモジュールも提案する。
本モデルでは, 通過ランキングと文書ランキングの試験セットにおいて, それぞれ第1位と第4位を達成している。
論文 参考訳(メタデータ) (2023-08-23T09:56:59Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Neural Rankers for Effective Screening Prioritisation in Medical
Systematic Review Literature Search [31.797257552928336]
本稿では,事前学習した言語モデルを,体系的なレビュー文書ランキングタスクに適用する。
経験的分析は、このタスクの従来の方法と比較して、ニューラルネットワークがいかに効果的かを比較する。
以上の結果から,BERTをベースとしたランカは,現在のスクリーニング方法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-18T05:26:40Z) - CODER: An efficient framework for improving retrieval through
COntextualized Document Embedding Reranking [11.635294568328625]
本稿では,最小計算コストで広範囲の検索モデルの性能を向上させるためのフレームワークを提案する。
ベース密度検索法により抽出された事前計算された文書表現を利用する。
実行時に第一段階のメソッドの上に無視可能な計算オーバーヘッドを発生させ、最先端の高密度検索手法と簡単に組み合わせられるようにする。
論文 参考訳(メタデータ) (2021-12-16T10:25:26Z) - Value Retrieval with Arbitrary Queries for Form-like Documents [50.5532781148902]
フォーム状文書に対する任意のクエリを用いた値検索を提案する。
本手法は,フォームのレイアウトやセマンティクスの理解に基づいて,任意のクエリのターゲット値を予測する。
本稿では,大規模モデル事前学習における文書理解を改善するためのシンプルな文書言語モデリング (simpleDLM) 戦略を提案する。
論文 参考訳(メタデータ) (2021-12-15T01:12:02Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z) - Document Ranking with a Pretrained Sequence-to-Sequence Model [56.44269917346376]
関連ラベルを「ターゲット語」として生成するためにシーケンス・ツー・シーケンス・モデルをどのように訓練するかを示す。
提案手法は,データポーラ方式におけるエンコーダのみのモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2020-03-14T22:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。