論文の概要: LLMs for Resource Allocation: A Participatory Budgeting Approach to Inferring Preferences
- arxiv url: http://arxiv.org/abs/2508.06060v1
- Date: Fri, 08 Aug 2025 06:45:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.105428
- Title: LLMs for Resource Allocation: A Participatory Budgeting Approach to Inferring Preferences
- Title(参考訳): LLMs for Resource Allocation: A Participatory Budgeting Approach to Infering Preferences
- Authors: Sankarshan Damle, Boi Faltings,
- Abstract要約: 大規模言語モデル(LLM)は、複雑な意思決定タスクを扱うことがますます期待されているが、構造化されたリソース割り当てを実行する能力はいまだ探索されていない。
i) LLMに基づく資源配分の実践的設定と, (ii) それらの推論能力を評価するための適応ベンチマークとして, PB(Participatory Budgeting)を活用する2目的フレームワークを提案する。
- 参考スコア(独自算出の注目度): 17.089038477886486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly expected to handle complex decision-making tasks, yet their ability to perform structured resource allocation remains underexplored. Evaluating their reasoning is also difficult due to data contamination and the static nature of existing benchmarks. We present a dual-purpose framework leveraging Participatory Budgeting (PB) both as (i) a practical setting for LLM-based resource allocation and (ii) an adaptive benchmark for evaluating their reasoning capabilities. We task LLMs with selecting project subsets under feasibility (e.g., budget) constraints via three prompting strategies: greedy selection, direct optimization, and a hill-climbing-inspired refinement. We benchmark LLMs' allocations against a utility-maximizing oracle. Interestingly, we also test whether LLMs can infer structured preferences from natural-language voter input or metadata, without explicit votes. By comparing allocations based on inferred preferences to those from ground-truth votes, we evaluate LLMs' ability to extract preferences from open-ended input. Our results underscore the role of prompt design and show that LLMs hold promise for mechanism design with unstructured inputs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑な意思決定タスクを扱うことがますます期待されているが、構造化されたリソース割り当てを実行する能力はいまだ探索されていない。
データ汚染と既存のベンチマークの静的な性質のため、それらの推論を評価することも難しい。
PB(Participatory Budgeting)とPB(Participatory Budgeting)を併用した多目的フレームワークを提案する。
一 LLM に基づく資源割当及び資源割当の実践的設定
(ii) 推論能力を評価するための適応ベンチマーク。
プロジェクトサブセットの選択を可能(予算など)の制約の下で行うことを、欲求選択(greedy selection)、直接最適化(direct optimization)、丘登りにインスパイアされた改善(full-climbing-inspired refinement)という3つの促進戦略によって行う。
我々は LLM の割り当てをユーティリティ最大化オラクルに対してベンチマークする。
また、自然言語の投票者入力やメタデータから構造化された好みを、明示的な投票なしに推測できるかどうかも検証した。
提案手法は, 投票結果から推定された選好に基づくアロケーションを, 投票結果からLLMの選好を抽出する能力を評価するものである。
この結果から,LLMが非構造的な入力を持つ機構設計を約束していることを示す。
関連論文リスト
- Latent Factor Models Meets Instructions: Goal-conditioned Latent Factor Discovery without Task Supervision [50.45597801390757]
Instruct-LFはゴール指向の潜在因子発見システムである。
命令フォロー機能と統計モデルを統合して、ノイズの多いデータセットを処理する。
論文 参考訳(メタデータ) (2025-02-21T02:03:08Z) - Teaching LLMs According to Their Aptitude: Adaptive Reasoning for Mathematical Problem Solving [55.895917967408586]
大規模な言語モデルによる数学的推論への既存のアプローチは、一般化可能性(英語版)にはChain-of-Thought(英語版)(CoT)、正確な計算にはTool-Integrated Reasoning(英語版)(TIR)に依存している。
本稿では, LLM が自然に推論戦略をパーソナライズできる適応型フレームワークである TATA (Teaching LLMs according their Aptitude) を提案する。
論文 参考訳(メタデータ) (2025-02-17T16:56:23Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - LLM-Powered Preference Elicitation in Combinatorial Assignment [17.367432304040662]
提案手法は,大規模言語モデル(LLM)を人為的プロキシとして活用し,課題における選好選択(PE)を簡素化するものである。
本稿では,SOTA ML を用いた嗜好推論方式と併用して動作する LLM プロキシのフレームワークを提案する。
コース割当て領域における人間の問合せに対するLLMプロキシの有効性を実験的に評価した。
論文 参考訳(メタデータ) (2025-02-14T17:12:20Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。