論文の概要: Accelerated Preference Elicitation with LLM-Based Proxies
- arxiv url: http://arxiv.org/abs/2501.14625v1
- Date: Fri, 24 Jan 2025 16:42:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-27 14:55:53.094229
- Title: Accelerated Preference Elicitation with LLM-Based Proxies
- Title(参考訳): LLMベースのプロキシによる高速な選好励振
- Authors: David Huang, Francisco Marmolejo-Cossío, Edwin Lock, David Parkes,
- Abstract要約: 本稿では,自然言語を用いた入札者から選好を引き出すための効率的なプロキシ設計のファミリーを提案する。
提案手法は,LLMパイプラインとDNF-proper-learning技術を組み合わせて,通信が制限された場合の好みを素早く近似する。
- 参考スコア(独自算出の注目度): 0.46498278084317696
- License:
- Abstract: Bidders in combinatorial auctions face significant challenges when describing their preferences to an auctioneer. Classical work on preference elicitation focuses on query-based techniques inspired from proper learning--often via proxies that interface between bidders and an auction mechanism--to incrementally learn bidder preferences as needed to compute efficient allocations. Although such elicitation mechanisms enjoy theoretical query efficiency, the amount of communication required may still be too cognitively taxing in practice. We propose a family of efficient LLM-based proxy designs for eliciting preferences from bidders using natural language. Our proposed mechanism combines LLM pipelines and DNF-proper-learning techniques to quickly approximate preferences when communication is limited. To validate our approach, we create a testing sandbox for elicitation mechanisms that communicate in natural language. In our experiments, our most promising LLM proxy design reaches approximately efficient outcomes with five times fewer queries than classical proper learning based elicitation mechanisms.
- Abstract(参考訳): 組み合わせオークションの入札者は、競売人への好みを説明する際に重大な課題に直面している。
優先順位付けに関する古典的な研究は、適切な学習からインスパイアされたクエリベースのテクニックに焦点を当てている。しばしば、入札者とオークションのメカニズムの間のインターフェースを通じて、効率的な割り当てを計算するために必要に応じて入札者の選好を漸進的に学習する。
このようなエリケーション機構は理論的なクエリ効率を享受するが、実際は必要なコミュニケーションの量はあまりに認知的に課税されすぎている可能性がある。
本稿では,自然言語を用いた入札者から選好を引き出すための,効率的なLLMベースのプロキシ設計のファミリを提案する。
提案手法は,LLMパイプラインとDNF-proper-learning技術を組み合わせて,通信が制限された場合の好みを素早く近似する。
このアプローチを検証するために、自然言語で通信する誘導機構のテストサンドボックスを作成します。
実験では,従来の固有学習に基づく推論機構の5倍のクエリで,最も有望なLLMプロキシ設計がほぼ効率的な結果に到達した。
関連論文リスト
- LLM-Powered Preference Elicitation in Combinatorial Assignment [17.367432304040662]
提案手法は,大規模言語モデル(LLM)を人為的プロキシとして活用し,課題における選好選択(PE)を簡素化するものである。
本稿では,SOTA ML を用いた嗜好推論方式と併用して動作する LLM プロキシのフレームワークを提案する。
コース割当て領域における人間の問合せに対するLLMプロキシの有効性を実験的に評価した。
論文 参考訳(メタデータ) (2025-02-14T17:12:20Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Machine Learning-Powered Combinatorial Clock Auction [13.724491757145385]
我々はイテレーティブオークション(ICA)の設計について研究する。
本稿では,要求クエリに基づいてMLモデルをトレーニングする新しい手法を提案する。
いくつかのスペクトルオークション領域におけるMLベースの需要メカニズムを実験的に評価した。
論文 参考訳(メタデータ) (2023-08-20T10:43:50Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。