論文の概要: The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets
- arxiv url: http://arxiv.org/abs/2506.00073v2
- Date: Thu, 12 Jun 2025 04:57:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.28877
- Title: The Automated but Risky Game: Modeling Agent-to-Agent Negotiations and Transactions in Consumer Markets
- Title(参考訳): 自動化されたリスクゲーム:消費者市場におけるエージェント対エージェント交渉と取引のモデル化
- Authors: Shenzhe Zhu, Jiao Sun, Yi Nian, Tobin South, Alex Pentland, Jiaxin Pei,
- Abstract要約: 消費者と商店双方がAIエージェントを承認し、交渉と取引を完全に自動化する将来のシナリオについて検討する。
我々の発見によると、AIによる取引は本質的に不均衡なゲームであり、異なるエージェントがユーザーに対して著しく異なる結果をもたらす。
ユーザーはAIエージェントにビジネス上の決定を委譲する際に注意を払わなければならない。
- 参考スコア(独自算出の注目度): 12.107940385598127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents are increasingly used in consumer-facing applications to assist with tasks such as product search, negotiation, and transaction execution. In this paper, we explore a future scenario where both consumers and merchants authorize AI agents to fully automate negotiations and transactions. We aim to answer two key questions: (1) Do different LLM agents vary in their ability to secure favorable deals for users? (2) What risks arise from fully automating deal-making with AI agents in consumer markets? To address these questions, we develop an experimental framework that evaluates the performance of various LLM agents in real-world negotiation and transaction settings. Our findings reveal that AI-mediated deal-making is an inherently imbalanced game -- different agents achieve significantly different outcomes for their users. Moreover, behavioral anomalies in LLMs can result in financial losses for both consumers and merchants, such as overspending or accepting unreasonable deals. These results underscore that while automation can improve efficiency, it also introduces substantial risks. Users should exercise caution when delegating business decisions to AI agents.
- Abstract(参考訳): AIエージェントは、製品検索、ネゴシエーション、トランザクション実行などのタスクを支援するために、コンシューマ向けアプリケーションでますます使用されている。
本稿では、消費者と商店双方がAIエージェントを承認し、交渉と取引を完全に自動化する未来のシナリオについて考察する。
1) LLM エージェントは,ユーザに対して有利な取引を行う能力に違いがあるか,という2つの重要な問いに答えることを目指している。
2)消費者市場におけるAIエージェントとの取引の完全自動化から生じるリスクは何か。
これらの課題に対処するため,実世界の交渉や取引設定において,様々なLLMエージェントの性能を評価する実験フレームワークを開発した。
我々の発見によると、AIによる取引は本質的に不均衡なゲームであり、異なるエージェントがユーザーに対して著しく異なる結果をもたらす。
さらに、LCMの行動異常は、過度な取引や不当な取引の受け入れなど、消費者と商人の両方にとって経済的損失をもたらす可能性がある。
これらの結果は、自動化によって効率が向上する一方で、重大なリスクももたらされることを強調している。
ユーザーはAIエージェントにビジネス上の決定を委譲する際に注意を払わなければならない。
関連論文リスト
- Exploring Big Five Personality and AI Capability Effects in LLM-Simulated Negotiation Dialogues [16.07828032939124]
本稿では,ミッションクリティカルな交渉文脈におけるエージェントAIシステムの評価フレームワークを提案する。
ソトピアをシミュレーションテストベッドとして使用し、人格特性とAIエージェント特性が社会的交渉結果にどのように影響するかを体系的に評価する2つの実験を行った。
論文 参考訳(メタデータ) (2025-06-19T00:14:56Z) - The Real Barrier to LLM Agent Usability is Agentic ROI [110.31127571114635]
大規模言語モデル(LLM)エージェントは、人間とAIの相互作用において有望な変化を示す。
我々は、需要の高いマスマーケットアプリケーションにおいて、重要なユーザビリティギャップを強調します。
論文 参考訳(メタデータ) (2025-05-23T11:40:58Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Shifting Power: Leveraging LLMs to Simulate Human Aversion in ABMs of Bilateral Financial Exchanges, A bond market study [15.379345372327375]
TRIBEは、大きな言語モデル(LLM)を付加したエージェントベースのモデルで、取引環境における人間のような意思決定をシミュレートする。
人為的な変動性の導入は、パワーダイナミクスをクライアントにシフトさせ、システム全体に不均等に影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2025-03-01T03:15:13Z) - Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Agentic AI: Autonomy, Accountability, and the Algorithmic Society [0.2209921757303168]
エージェント人工知能(AI)は、自律的に長期的な目標を追求し、意思決定を行い、複雑なマルチターンを実行することができる。
この指導的役割から積極的執行課題への移行は、法的、経済的、創造的な枠組みを確立した。
我々は,創造性と知的財産,法的・倫理的考察,競争効果の3つの分野における課題を探求する。
論文 参考訳(メタデータ) (2025-02-01T03:14:59Z) - Can We Govern the Agent-to-Agent Economy? [0.0]
AIガバナンスに対する現在のアプローチは、AIエージェントが重要なタスクを管理する未来を予測できないことが多い。
我々は、将来の分散化エージェント経済を期待して、研究開発活動に情報を提供するために、業界における新たな概念を強調します。
論文 参考訳(メタデータ) (2025-01-28T00:50:35Z) - YETI (YET to Intervene) Proactive Interventions by Multimodal AI Agents in Augmented Reality Tasks [16.443149180969776]
Augmented Reality (AR)ヘッドウェアは、日々の手続き的なタスクを解く際のユーザエクスペリエンスを一意に改善することができる。
このようなAR機能は、AIエージェントがユーザーのマルチモーダル機能に関連するアクションを見て耳を傾けるのに役立つ。
一方、AIエージェントのプロアクティビティは、人間が観察されたタスクのミスを検出し、修正するのに役立つ。
論文 参考訳(メタデータ) (2025-01-16T08:06:02Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - Stochastic Market Games [10.979093424231532]
我々は、市場力を利用して、エージェントが協力的になるためのインセンティブを提供することを提案する。
プリソナーズ・ジレンマの反復版で示されているように、提案された市場の定式化はゲームのダイナミクスを変えることができる。
市場の存在は、全体的な結果と、取引活動を通じて個々のリターンを代理する双方を改善することができることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-15T10:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。