論文の概要: AgreeMate: Teaching LLMs to Haggle
- arxiv url: http://arxiv.org/abs/2412.18690v1
- Date: Tue, 24 Dec 2024 21:57:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:54.810983
- Title: AgreeMate: Teaching LLMs to Haggle
- Title(参考訳): AgreeMate: LLMにハグルを教える
- Authors: Ainesh Chatterjee, Samuel Miller, Nithin Parepally,
- Abstract要約: 我々は,自然言語による戦略的価格交渉を行うために,大規模言語モデルを訓練するフレームワークであるAgreeMateを紹介する。
本稿では、疎結合(モジュラー)バルゲインアーキテクチャ内のエージェントとして使用する場合の大規模言語モデルの性能について述べる。
- 参考スコア(独自算出の注目度): 0.08192907805418582
- License:
- Abstract: We introduce AgreeMate, a framework for training Large Language Models (LLMs) to perform strategic price negotiations through natural language. We apply recent advances to a negotiation setting where two agents (i.e. buyer or seller) use natural language to bargain on goods using coarse actions. Specifically, we present the performance of Large Language Models when used as agents within a decoupled (modular) bargaining architecture. We demonstrate that using prompt engineering, fine-tuning, and chain-of-thought prompting enhances model performance, as defined by novel metrics. We use attention probing to show model attention to semantic relationships between tokens during negotiations.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を訓練し,自然言語による戦略的価格交渉を行うフレームワークであるAgreeMateを紹介する。
我々は,2人のエージェント(すなわち買い手や売り手)が,粗悪な行動を用いて商品を取引するために自然言語を使用する交渉環境に,近年の進歩を適用した。
具体的には、疎結合(モジュラー)バーゲティングアーキテクチャにおいて、エージェントとして使用される場合の大規模言語モデルの性能を示す。
我々は、新しいメトリクスで定義されるように、プロンプトエンジニアリング、微調整、チェーン・オブ・思想のプロンプトを用いることで、モデル性能が向上することを示した。
我々は交渉中のトークン間の意味的関係にモデル的注意力を示すために注意探索を用いる。
関連論文リスト
- Assistive Large Language Model Agents for Socially-Aware Negotiation Dialogues [47.977032883078664]
我々は,ビジネス交渉における対話者を支援する大規模言語モデル(LLM)に基づく支援エージェントを開発する。
第3のLLMは、交渉結果を改善するための基準に違反した発話を書き換える仲介役として機能する。
3つの異なる交渉トピックにわたる交渉において,その効果を示すための実証的証拠を豊富に提供する。
論文 参考訳(メタデータ) (2024-01-29T09:07:40Z) - Baichuan2-Sum: Instruction Finetune Baichuan2-7B Model for Dialogue Summarization [12.45299260235282]
本稿では,役割指向のダイアグルージュ要約のための命令微調整モデルBaichuan2-Sumを提案する。
異なる役割に対して異なる命令を設定することで、モデルは対話相互作用から学び、期待される要約を出力することができる。
実験により、提案モデルが2つの公開対話要約データセット上で、最先端の新たな結果を達成することを示す。
論文 参考訳(メタデータ) (2024-01-27T20:20:39Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Language of Bargaining [60.218128617765046]
我々は、言語の使用が二国間交渉をどのように形成するかを研究するための新しいデータセットを構築した。
我々の研究は、交渉の結果を予測する言語信号も明らかにしている。
論文 参考訳(メタデータ) (2023-06-12T13:52:01Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Universal Sentence Representation Learning with Conditional Masked
Language Model [7.334766841801749]
文表現を効果的に学習するための条件付きマスク言語モデリング(M)を提案する。
我々の英語CMLMモデルは,SentEvalの最先端性能を実現する。
完全に教師なしの学習方法として、CMLMは幅広い言語やドメインに便利に拡張できます。
論文 参考訳(メタデータ) (2020-12-28T18:06:37Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z) - Exploring Early Prediction of Buyer-Seller Negotiation Outcomes [19.35826558501076]
モデルがアクセス可能な発話の分数を変化させることで,買い手と売り手の交渉結果の早期予測という新たな課題を探求する。
従来の特徴に基づく手法を用いた早期予測の実現可能性を検討するとともに,非言語的タスクコンテキストを事前訓練された言語モデルに組み込むことにより,その実現可能性を検討する。
論文 参考訳(メタデータ) (2020-04-06T00:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。