論文の概要: Prices, Bids, Values: Everything, Everywhere, All at Once
- arxiv url: http://arxiv.org/abs/2411.09355v1
- Date: Thu, 14 Nov 2024 10:56:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:38:49.360095
- Title: Prices, Bids, Values: Everything, Everywhere, All at Once
- Title(参考訳): 価格、バイド、価値:あらゆるもの、あらゆるもの、すべて一度に
- Authors: Ermis Soumalias, Jakob Heiss, Jakob Weissteiner, Sven Seuken,
- Abstract要約: 我々はイテレーティブオークション(ICA)の設計について研究する。
両問合せ型からの全情報を統合する新しい機械学習アルゴリズムを提案する。
これまでに設計された最も効率的なICAであるMLHCAを紹介します。
- 参考スコア(独自算出の注目度): 13.724491757145385
- License:
- Abstract: We study the design of iterative combinatorial auctions (ICAs). The main challenge in this domain is that the bundle space grows exponentially in the number of items. To address this, several papers have recently proposed machine learning (ML)-based preference elicitation algorithms that aim to elicit only the most important information from bidders to maximize efficiency. The SOTA ML-based algorithms elicit bidders' preferences via value queries (i.e., "What is your value for the bundle $\{A,B\}$?"). However, the most popular iterative combinatorial auction in practice elicits information via more practical \emph{demand queries} (i.e., "At prices $p$, what is your most preferred bundle of items?"). In this paper, we examine the advantages of value and demand queries from both an auction design and an ML perspective. We propose a novel ML algorithm that provably integrates the full information from both query types. As suggested by our theoretical analysis, our experimental results verify that combining demand and value queries results in significantly better learning performance. Building on these insights, we present MLHCA, the most efficient ICA ever designed. MLHCA substantially outperforms the previous SOTA in realistic auction settings, delivering large efficiency gains. Compared to the previous SOTA, MLHCA reduces efficiency loss by up to a factor of 10, and in the most challenging and realistic domain, MLHCA outperforms the previous SOTA using 30% fewer queries. Thus, MLHCA achieves efficiency improvements that translate to welfare gains of hundreds of millions of USD, while also reducing the cognitive load on the bidders, establishing a new benchmark both for practicability and for economic impact.
- Abstract(参考訳): 本稿では,イテレーティブ・コンビナトリ・オークション (ICA) の設計について検討する。
この領域の主な課題は、バンドル空間がアイテム数で指数関数的に増加することである。
これを解決するために、いくつかの論文が最近、入札者から最も重要な情報のみを抽出して効率を最大化する機械学習(ML)ベースの選好推論アルゴリズムを提案している。
SOTA ML ベースのアルゴリズムは、入札者の好みを値クエリ(つまり、バンドル $\{A,B\}$?
しかし、実際に最も人気のある反復的組み合わせオークションは、より実用的な 'emph{demand query} を通じて情報を引き出すものである(つまり、"At price $p$, your most preferred bundle of items?
本稿では,オークションデザインとMLの両面から,価値と需要の問合せの利点を考察する。
両問合せ型の全情報を確実に統合する新しいMLアルゴリズムを提案する。
理論分析によって示唆されたように,本実験の結果,需要と価値クエリの組み合わせが学習性能を著しく向上させることを確認した。
これらの知見に基づいて、これまでに設計された最も効率的なICAであるMLHCAを提示する。
MLHCAは、現実的なオークション設定で以前のSOTAを大幅に上回り、大きな効率向上をもたらす。
従来のSOTAと比較して、MLHCAは効率損失を最大10倍に減らし、最も困難で現実的な領域では、30%のクエリで従来のSOTAよりも優れていた。
このようにMLHCAは、数十億米ドルの福祉給付に換算して効率の向上を達成し、入札者の認知負荷を低減させ、実践性と経済への影響の両面での新しいベンチマークを確立した。
関連論文リスト
- An Early FIRST Reproduction and Improvements to Single-Token Decoding for Fast Listwise Reranking [50.81324768683995]
FIRSTは、学習からランクへの目的を統合し、最初の生成されたトークンのみのロジットを活用する新しいアプローチである。
我々は、FIRSTの評価をTRECディープラーニングデータセット(DL19-22)に拡張し、様々な領域でその堅牢性を検証する。
我々の実験は、単一トークンの高速リランクは、ドメイン外リランクの品質を損なうものではないことを確認した。
論文 参考訳(メタデータ) (2024-11-08T12:08:17Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - Best Practices for Distilling Large Language Models into BERT for Web Search Ranking [14.550458167328497]
LLM(Large Language Models)は、潜在的文書のランク付けリストを生成する。
LLMのランキングの専門知識をBERTのようなよりコンパクトなモデルに移行し、ランキングの損失を利用して、リソース集約の少ないモデルのデプロイを可能にします。
2024年2月現在,我々のモデルは商用ウェブ検索エンジンに統合されている。
論文 参考訳(メタデータ) (2024-11-07T08:54:46Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Cost-Effective Proxy Reward Model Construction with On-Policy and Active Learning [70.22819290458581]
人間のフィードバックによる強化学習(RLHF)は、現在の大規模言語モデルパイプラインにおいて広く採用されているアプローチである。
提案手法では,(1)OODを回避するためのオン・ポリシー・クエリと,(2)プライオリティ・クエリの最も情報性の高いデータを選択するためのアクティブ・ラーニングという2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2024-07-02T10:09:19Z) - Fine Tuning vs. Retrieval Augmented Generation for Less Popular Knowledge [15.553942864736989]
言語モデル(LM)は膨大な事実知識を記憶し、様々なタスクやドメインにまたがって強力なパフォーマンスを示す。
低頻度トピックにおけるLMの性能を高めるための2つの顕著なアプローチは、検索型拡張生成(RAG)と合成データに対する微調整(FT)である。
本稿では,質問応答タスクにおける低周波エンティティ処理におけるLMのカスタマイズに対するRAGとFTの影響について検討し,評価する。
論文 参考訳(メタデータ) (2024-03-03T08:07:55Z) - On Leveraging Large Language Models for Enhancing Entity Resolution: A Cost-efficient Approach [7.996010840316654]
本稿では,Large Language Models (LLMs) を用いた不確実性低減フレームワークを提案する。
LLMは、先進的な言語能力と、広範なデータサイエンスの専門知識を持たない人々に対して大きな利点をもたらす「従量制」モデルに便乗している。
我々は,本手法が効率的かつ効果的であることを示し,実世界のタスクに有望な応用を提供する。
論文 参考訳(メタデータ) (2024-01-07T09:06:58Z) - Routing to the Expert: Efficient Reward-guided Ensemble of Large
Language Models [69.51130760097818]
本研究では,報奨誘導型ルーティング手法であるZooterを提案する。
さまざまなドメインやタスクについて26のサブセットを持つ総合的なベンチマークコレクション上でZooterを評価する。
論文 参考訳(メタデータ) (2023-11-15T04:40:43Z) - Machine Learning-Powered Combinatorial Clock Auction [13.724491757145385]
我々はイテレーティブオークション(ICA)の設計について研究する。
本稿では,要求クエリに基づいてMLモデルをトレーニングする新しい手法を提案する。
いくつかのスペクトルオークション領域におけるMLベースの需要メカニズムを実験的に評価した。
論文 参考訳(メタデータ) (2023-08-20T10:43:50Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - A Game-Theoretic Analysis of the Empirical Revenue Maximization
Algorithm with Endogenous Sampling [19.453243313852557]
実証収益最大化(ERM)はオークションデザインにおいて最も重要な価格学習アルゴリズムの1つである。
我々は、Laviらによって提案されたインセンティブ認識尺度の定義を一般化し、$N$の入力サンプルから$mge 1$の変化によるERMの出力価格の低減を定量化する。
本研究では, 単価オークションにおいて, 単価オークションにおけるグループインセンティブ・コンパチビリティを近似的に示すために, ERM を用いた効率よく, ほぼインセンティブに適合し, 収益に最適な学習アルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-10-12T08:20:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。