論文の概要: CSP: A Simulator For Multi-Agent Ranking Competitions
- arxiv url: http://arxiv.org/abs/2502.11197v1
- Date: Sun, 16 Feb 2025 16:56:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:08:16.479370
- Title: CSP: A Simulator For Multi-Agent Ranking Competitions
- Title(参考訳): CSP:マルチエージェントランキングコンペティションのシミュレータ
- Authors: Tommy Mordo, Tomer Kordonsky, Haya Nachimovsky, Moshe Tennenholtz, Oren Kurland,
- Abstract要約: ランキングコンペティションでは、文書作者は過去のランキングに反応してコンテンツを変更することで、最高のランキングを競う。
生成AIの台頭、特にLarge Language Models(LLMs)は、文書作成者としてLLMを使用するという新しいパラダイムを導入している。
このアプローチは、人間による競争におけるスケーラビリティの制約に対処し、ウェブ上でのLLM生成コンテンツの役割の増大を反映している。
- 参考スコア(独自算出の注目度): 10.757199109227175
- License:
- Abstract: In ranking competitions, document authors compete for the highest rankings by modifying their content in response to past rankings. Previous studies focused on human participants, primarily students, in controlled settings. The rise of generative AI, particularly Large Language Models (LLMs), introduces a new paradigm: using LLMs as document authors. This approach addresses scalability constraints in human-based competitions and reflects the growing role of LLM-generated content on the web-a prime example of ranking competition. We introduce a highly configurable ranking competition simulator that leverages LLMs as document authors. It includes analytical tools to examine the resulting datasets. We demonstrate its capabilities by generating multiple datasets and conducting an extensive analysis. Our code and datasets are publicly available for research.
- Abstract(参考訳): ランキングコンペティションでは、文書作者は過去のランキングに反応してコンテンツを変更することで、最高のランキングを競う。
以前の研究では、制御された環境の中で、主に学生である人間の参加者に焦点を当てていた。
生成AIの台頭、特にLarge Language Models(LLMs)は、文書作成者としてLLMを使用するという新しいパラダイムを導入している。
この手法は,人間による競争におけるスケーラビリティの制約に対処し,ウェブ上でのLLM生成コンテンツの役割の増大を反映している。
LLMを文書作成者として活用する高度に構成可能なランキングコンペティションシミュレータを提案する。
結果のデータセットを調べるための分析ツールが含まれている。
複数のデータセットを生成し、広範な分析を行うことで、その能力を実証する。
私たちのコードとデータセットは、研究のために公開されています。
関連論文リスト
- Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Best Practices for Distilling Large Language Models into BERT for Web Search Ranking [14.550458167328497]
LLM(Large Language Models)は、潜在的文書のランク付けリストを生成する。
LLMのランキングの専門知識をBERTのようなよりコンパクトなモデルに移行し、ランキングの損失を利用して、リソース集約の少ないモデルのデプロイを可能にします。
2024年2月現在,我々のモデルは商用ウェブ検索エンジンに統合されている。
論文 参考訳(メタデータ) (2024-11-07T08:54:46Z) - Advancing Academic Knowledge Retrieval via LLM-enhanced Representation Similarity Fusion [7.195738513912784]
本稿では,KDDカップ2024チャレンジで2位を獲得したRobo Spaceが提案したLDM-KnowSimFuserを紹介する。
複数のタスクにおけるLLMの優れた性能からインスピレーションを得て、まずLLM強化事前学習検索モデルを用いて微調整と推論を行う。
コンペティションデータセットで行った実験は、最終リーダーボードで0.20726のスコアを得た提案の優位性を示している。
論文 参考訳(メタデータ) (2024-10-14T12:49:13Z) - Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - Are Large Language Models Good Classifiers? A Study on Edit Intent Classification in Scientific Document Revisions [62.12545440385489]
大規模言語モデル(LLM)は、テキスト生成の大幅な進歩をもたらしたが、分類タスクの強化の可能性はまだ未検討である。
生成と符号化の両方のアプローチを含む分類のための微調整LDMを徹底的に研究するためのフレームワークを提案する。
我々はこのフレームワークを編集意図分類(EIC)においてインスタンス化する。
論文 参考訳(メタデータ) (2024-10-02T20:48:28Z) - TourRank: Utilizing Large Language Models for Documents Ranking with a Tournament-Inspired Strategy [34.36712942465951]
大規模言語モデル(LLM)は、ゼロショット文書ランキングにますます採用され、賞賛に値する結果をもたらす。
本稿では,FIFAワールドカップなどのスポーツトーナメントに触発されたTourRankという新しい文書ランキング手法を紹介する。
具体的には,1) 競技大会の並列グループステージに似た多段階グループ戦略を導入することで,入力長の制限を克服し,ランキング待ち時間を短縮する。
論文 参考訳(メタデータ) (2024-06-17T15:58:22Z) - Peer Review as A Multi-Turn and Long-Context Dialogue with Role-Based Interactions [62.0123588983514]
大規模言語モデル(LLM)は様々な分野にまたがる幅広い応用を実証してきた。
我々は、ピアレビュープロセスを多ターン長文対話として再構築し、著者、レビュアー、意思決定者に対して異なる役割を担っている。
複数の情報源から収集された92,017件のレビューを含む26,841件の論文を含む包括的データセットを構築した。
論文 参考訳(メタデータ) (2024-06-09T08:24:17Z) - Investigating the Potential of Using Large Language Models for Scheduling [2.794191745717151]
AIを利用したソフトウェアに関するACM International ConferenceがAIware Challengeを発表した。
プログラムスケジューリングにおけるLarge Language Models (LLM) の利用について検討する。
LLMは、ゼロショット設定でも、合理的に優れたカンファレンススケジュールの最初のドラフトを作成します。
論文 参考訳(メタデータ) (2024-06-04T08:56:56Z) - Cocktail: A Comprehensive Information Retrieval Benchmark with LLM-Generated Documents Integration [60.535793237063885]
LLM(Large Language Models)の普及は、インターネット上のAIGC(AIGC)の流入につながっている。
AIGCの急増が情報検索システムに与える影響は、まだ明らかな疑問である。
我々は、この混合ソースデータランドスケープでIRモデルを評価するのに適したベンチマークであるCocktailを紹介した。
論文 参考訳(メタデータ) (2024-05-26T12:30:20Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。