論文の概要: Learning from Synthetic Labs: Language Models as Auction Participants
- arxiv url: http://arxiv.org/abs/2507.09083v1
- Date: Sat, 12 Jul 2025 00:00:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.279597
- Title: Learning from Synthetic Labs: Language Models as Auction Participants
- Title(参考訳): Synthetic Labsから学ぶ: オークション参加者としての言語モデル
- Authors: Anand Shah, Kehang Zhu, Yanchen Jiang, Jeffrey G. Wang, Arif K. Dayi, John J. Horton, David C. Parkes,
- Abstract要約: 本稿では, オークションの研究開発を支援するために, 新たな合成データ生成手法を提案する。
シミュレーションAIエージェント(大規模言語モデル)は,様々な古典的フォーマットのオークションにおいて,実験文献と一致していることがわかった。
- 参考スコア(独自算出の注目度): 12.007281866970485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the behavior of simulated AI agents (large language models, or LLMs) in auctions, introducing a novel synthetic data-generating process to help facilitate the study and design of auctions. We find that LLMs -- when endowed with chain of thought reasoning capacity -- agree with the experimental literature in auctions across a variety of classic auction formats. In particular, we find that LLM bidders produce results consistent with risk-averse human bidders; that they perform closer to theoretical predictions in obviously strategy-proof auctions; and, that they succumb to the winner's curse in common value settings. On prompting, we find that LLMs are not very sensitive to naive changes in prompts (e.g., language, currency) but can improve dramatically towards theoretical predictions with the right mental model (i.e., the language of Nash deviations). We run 1,000$+$ auctions for less than $\$$400 with GPT-4 models (three orders of magnitude cheaper than modern auction experiments) and develop a framework flexible enough to run auction experiments with any LLM model and a wide range of auction design specifications, facilitating further experimental study by decreasing costs and serving as a proof-of-concept for the use of LLM proxies.
- Abstract(参考訳): 本稿では, オークションにおけるAIエージェント(大規模言語モデル, LLM)の挙動を考察し, オークションの実施を促進するために, 新たな合成データ生成プロセスを導入する。
LLMは、思考推論能力の連鎖を与えられたとき、様々な古典的なオークションフォーマットのオークションにおいて、実験的な文献と一致していることがわかった。
特に, LLM 入札者は, リスクと逆の人間入札者との一致した結果が得られ, 明らかに戦略に反するオークションにおいて理論的予測に近づき, 共通価値設定において勝者の呪いに屈することがわかった。
プロンプトでは、LLMはインプロンプトの変化(例えば、言語、通貨)にあまり敏感ではないが、正しいメンタルモデル(すなわち、ナッシュ偏差の言語)による理論的予測に向けて劇的に改善できる。
我々は、GPT-4モデル(現代のオークション実験より3桁安い)で$400以下のオークションを1000ドル以上で実施し、LLMモデルと幅広いオークション設計仕様でオークション実験を行うのに十分なフレキシブルなフレームワークを開発し、コストを削減し、LLMプロキシの使用の実証となることによって、さらなる実験的研究を促進する。
関連論文リスト
- Test-Time Learning for Large Language Models [33.11605667376906]
大規模言語モデル(LLM)のためのテスト時間学習(TTL)パラダイムを提案する。
LLMはテスト中にラベルなしのテストデータのみを使用してターゲットドメインに動的に適応する。
TLMはドメイン知識適応における元のLLMと比較して少なくとも20%性能が向上することを示す。
論文 参考訳(メタデータ) (2025-05-27T02:18:59Z) - Accelerated Preference Elicitation with LLM-Based Proxies [0.46498278084317696]
本稿では,自然言語を用いた入札者から選好を引き出すための効率的なプロキシ設計のファミリーを提案する。
提案手法は,LLMパイプラインとDNF-proper-learning技術を組み合わせて,通信が制限された場合の好みを素早く近似する。
論文 参考訳(メタデータ) (2025-01-24T16:42:47Z) - Best Practices for Distilling Large Language Models into BERT for Web Search Ranking [14.550458167328497]
LLM(Large Language Models)は、潜在的文書のランク付けリストを生成する。
LLMのランキングの専門知識をBERTのようなよりコンパクトなモデルに移行し、ランキングの損失を利用して、リソース集約の少ないモデルのデプロイを可能にします。
2024年2月現在,我々のモデルは商用ウェブ検索エンジンに統合されている。
論文 参考訳(メタデータ) (2024-11-07T08:54:46Z) - Aligning Language Models with Demonstrated Feedback [58.834937450242975]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - Auctions with LLM Summaries [13.797878055583531]
本研究では,大言語モデル(LLM)が生成した要約の中に,入札者がコンテンツの配置を入札するオークション環境について検討する。
本稿では,オークションモジュールとLLMモジュールが協調して動作する新しい因子化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-11T21:05:56Z) - Algorithmic Collusion by Large Language Models [0.08192907805418582]
我々は,Large Language Models(LLMs)に基づくアルゴリズム価格設定エージェントによる実験を行う。
LLMをベースとしたエージェントは価格設定に長けており、オリゴポリー設定で超競争的な価格と利益を自律的に得ることができる。
新規技術を用いたオフパス解析は、これらの現象に寄与するとして価格戦争の懸念を明らかにする。
論文 参考訳(メタデータ) (2024-03-31T21:43:05Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Learning to Generate Explainable Stock Predictions using Self-Reflective
Large Language Models [54.21695754082441]
説明可能なストック予測を生成するために,LLM(Large Language Models)を教えるフレームワークを提案する。
反射剤は自己推論によって過去の株価の動きを説明する方法を学ぶ一方、PPOトレーナーは最も可能性の高い説明を生成するためにモデルを訓練する。
我々のフレームワークは従来のディープラーニング法とLLM法の両方を予測精度とマシューズ相関係数で上回ることができる。
論文 参考訳(メタデータ) (2024-02-06T03:18:58Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Evaluating Large Language Models at Evaluating Instruction Following [54.49567482594617]
我々は,命令追従出力の識別におけるLLM評価器の能力をテストするために,挑戦的なメタ評価ベンチマーク LLMBar を導入する。
異なる評価器がLLMBarに対して異なる性能を示し、最高の評価器でさえ改善の余地があることが判明した。
論文 参考訳(メタデータ) (2023-10-11T16:38:11Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。