論文の概要: Prices, Bids, Values: One ML-Powered Combinatorial Auction to Rule Them All
- arxiv url: http://arxiv.org/abs/2411.09355v2
- Date: Sat, 01 Feb 2025 05:52:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 15:57:53.332774
- Title: Prices, Bids, Values: One ML-Powered Combinatorial Auction to Rule Them All
- Title(参考訳): 価格、バイド、価値:MLを駆使したY Combinatorialオークション
- Authors: Ermis Soumalias, Jakob Heiss, Jakob Weissteiner, Sven Seuken,
- Abstract要約: 本稿では,要求クエリと値クエリの両方から全情報を確実に活用する,新しい機械学習アルゴリズムを提案する。
MLHCAは、値と要求クエリを使用する新しいMLベースのオークションである。
- 参考スコア(独自算出の注目度): 13.724491757145385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the design of iterative combinatorial auctions (ICAs). The main challenge in this domain is that the bundle space grows exponentially in the number of items. To address this, recent work has proposed machine learning (ML)-based preference elicitation algorithms that aim to elicit only the most critical information from bidders to maximize efficiency. However, while the SOTA ML-based algorithms elicit bidders' preferences via value queries, ICAs that are used in practice elicit information via demand queries. In this paper, we introduce a novel ML algorithm that provably makes use of the full information from both value and demand queries, and we show via experiments that combining both query types results in significantly better learning performance in practice. Building on these insights, we present MLHCA, a new ML-powered auction that uses value and demand queries. MLHCA substantially outperforms the previous SOTA, reducing efficiency loss by up to a factor 10, with up to 58% fewer queries. Thus, MLHCA achieves large efficiency improvements while also reducing bidders' cognitive load, establishing a new benchmark for both practicability and efficiency.
- Abstract(参考訳): 本稿では,イテレーティブ・コンビナトリ・オークション (ICA) の設計について検討する。
この領域の主な課題は、バンドル空間がアイテム数で指数関数的に増加することである。
これを解決するために、近年の研究では、入札者から最も重要な情報のみを抽出して効率を最大化する機械学習(ML)ベースの選好推論アルゴリズムが提案されている。
しかし、SOTA MLベースのアルゴリズムは、入札者の好みを値クエリによって引き出すが、実際に要求クエリを介して情報を引き出すのに使用されるICAは、このアルゴリズムを使用する。
本稿では,値と要求の両方のクエリから全情報を活用する新しいMLアルゴリズムを提案する。また,両クエリタイプを組み合わせることで,実際の学習性能が著しく向上することを示す。
これらの知見に基づいて、MLHCAは、値と要求クエリを使用する新しいMLベースのオークションである。
MLHCAは以前のSOTAを大幅に上回り、効率損失を最大10倍に減らし、クエリは最大58%減少する。
このようにMLHCAは入札者の認知負荷を低減しつつ、大幅な効率向上を実現し、実践性と効率性の両面での新しいベンチマークを確立する。
関連論文リスト
- A thorough benchmark of automatic text classification: From traditional approaches to large language models [9.069939079065298]
本研究は,近年のアプローチの有効性が,コストの増大を補うかどうかを考察する。
これには、従来の12のATCソリューションと最近のATCソリューションの費用対効果に関する科学的に健全な比較分析が含まれている。
コード、データ、ドキュメントのリリースにより、コミュニティは実験を複製し、フィールドを前進させることができる。
論文 参考訳(メタデータ) (2025-04-02T17:40:08Z) - Automated Query-Product Relevance Labeling using Large Language Models for E-commerce Search [3.392843594990172]
クエリとプロダクトのペアをアノテートするための従来のアプローチは、人間ベースのラベリングサービスに依存している。
本研究では,Large Language Models (LLMs) が,人間ラベル作成者に必要な時間とコストのごく一部で,このタスクにおける人間レベルの精度にアプローチ可能であることを示す。
この拡張性のある人間のアノテーションの代替は、情報検索領域に重大な影響を及ぼす。
論文 参考訳(メタデータ) (2025-02-21T22:59:36Z) - Procurement Auctions via Approximately Optimal Submodular Optimization [53.93943270902349]
競売業者がプライベートコストで戦略的売り手からサービスを取得しようとする競売について検討する。
我々の目標は、取得したサービスの品質と販売者の総コストとの差を最大化する計算効率の良いオークションを設計することである。
論文 参考訳(メタデータ) (2024-11-20T18:06:55Z) - An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - MetaLLM: A High-performant and Cost-efficient Dynamic Framework for Wrapping LLMs [21.689490112983677]
分類タスクに最適な大言語モデル(LLM)に各クエリを動的にルーティングするフレームワークであるMetaLLMを紹介する。
多武装バンディットとして選択問題をフレーミングすることで、MetaLLMは不確実性の下で予測精度とコスト効率のバランスをとる。
LLMプラットフォーム上で実施した本実験では,メタLLMの有効性を実世界のシナリオで示す。
論文 参考訳(メタデータ) (2024-07-15T15:45:07Z) - Cost-Effective Proxy Reward Model Construction with On-Policy and Active Learning [70.22819290458581]
人間のフィードバックによる強化学習(RLHF)は、現在の大規模言語モデルパイプラインにおいて広く採用されているアプローチである。
提案手法では,(1)OODを回避するためのオン・ポリシー・クエリと,(2)プライオリティ・クエリの最も情報性の高いデータを選択するためのアクティブ・ラーニングという2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2024-07-02T10:09:19Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Reinforcement Learning from Human Feedback with Active Queries [67.27150911254155]
現在の強化学習アプローチは、多くの場合、大量の人間による嗜好データを必要とする。
本稿では,能動学習の成功に触発されたクエリ効率の高いRLHF手法を提案する。
実験の結果,ADPOは人間の好みに対するクエリの約半分しか作成していないが,最先端のDPO法の性能と一致していることがわかった。
論文 参考訳(メタデータ) (2024-02-14T18:58:40Z) - On Leveraging Large Language Models for Enhancing Entity Resolution: A Cost-efficient Approach [7.996010840316654]
本稿では,Large Language Models (LLMs) を用いた不確実性低減フレームワークを提案する。
LLMは、先進的な言語能力と、広範なデータサイエンスの専門知識を持たない人々に対して大きな利点をもたらす「従量制」モデルに便乗している。
我々は,本手法が効率的かつ効果的であることを示し,実世界のタスクに有望な応用を提供する。
論文 参考訳(メタデータ) (2024-01-07T09:06:58Z) - Routing to the Expert: Efficient Reward-guided Ensemble of Large
Language Models [69.51130760097818]
本研究では,報奨誘導型ルーティング手法であるZooterを提案する。
さまざまなドメインやタスクについて26のサブセットを持つ総合的なベンチマークコレクション上でZooterを評価する。
論文 参考訳(メタデータ) (2023-11-15T04:40:43Z) - Machine Learning-Powered Combinatorial Clock Auction [13.724491757145385]
我々はイテレーティブオークション(ICA)の設計について研究する。
本稿では,要求クエリに基づいてMLモデルをトレーニングする新しい手法を提案する。
いくつかのスペクトルオークション領域におけるMLベースの需要メカニズムを実験的に評価した。
論文 参考訳(メタデータ) (2023-08-20T10:43:50Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Neural Auction: End-to-End Learning of Auction Mechanisms for E-Commerce
Advertising [42.7415188090209]
我々は,オークションからコンテキストを効率的に抽出する深層モデルを開発し,オークションデザインのための豊富な特徴を提供する。
タオバオのEコマース広告システムにDNAが配備されている。
論文 参考訳(メタデータ) (2021-06-07T13:20:40Z) - A Game-Theoretic Analysis of the Empirical Revenue Maximization
Algorithm with Endogenous Sampling [19.453243313852557]
実証収益最大化(ERM)はオークションデザインにおいて最も重要な価格学習アルゴリズムの1つである。
我々は、Laviらによって提案されたインセンティブ認識尺度の定義を一般化し、$N$の入力サンプルから$mge 1$の変化によるERMの出力価格の低減を定量化する。
本研究では, 単価オークションにおいて, 単価オークションにおけるグループインセンティブ・コンパチビリティを近似的に示すために, ERM を用いた効率よく, ほぼインセンティブに適合し, 収益に最適な学習アルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-10-12T08:20:35Z) - Auction learning as a two-player game [19.706363403596196]
オークションデザイン(Auction Design)は、固定ユーティリティ機能を備えた2人プレイのゲームである。
期待収益を最大化するインセンティブをデザインすることは、オークションデザインの中心的な問題である。
論文 参考訳(メタデータ) (2020-06-10T06:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。