論文の概要: Crisis-Bench: Benchmarking Strategic Ambiguity and Reputation Management in Large Language Models
- arxiv url: http://arxiv.org/abs/2601.05570v1
- Date: Fri, 09 Jan 2026 06:41:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.869617
- Title: Crisis-Bench: Benchmarking Strategic Ambiguity and Reputation Management in Large Language Models
- Title(参考訳): Crisis-Bench: 大規模言語モデルにおける戦略的曖昧さと評価管理のベンチマーク
- Authors: Cooper Lin, Maohao Ran, Yanting Zhang, Zhenglin Wan, Hongwei Fan, Yibo Xu, Yike Guo, Wei Xue, Jun Song,
- Abstract要約: Crisis-Benchは、大規模言語モデル(LLM)を評価する多エージェント部分観測可能なマルコフ決定プロセス(POMDP)である。
静的グラウンドの真理に依存する従来のベンチマークとは異なり、Adjudicator-Market Loopを導入します。
倫理的懸念に屈服するモデルもある一方で、マキアベリアの正統な戦略的拘束力を示すモデルもある。
- 参考スコア(独自算出の注目度): 27.438383104192393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard safety alignment optimizes Large Language Models (LLMs) for universal helpfulness and honesty, effectively instilling a rigid "Boy Scout" morality. While robust for general-purpose assistants, this one-size-fits-all ethical framework imposes a "transparency tax" on professional domains requiring strategic ambiguity and information withholding, such as public relations, negotiation, and crisis management. To measure this gap between general safety and professional utility, we introduce Crisis-Bench, a multi-agent Partially Observable Markov Decision Process (POMDP) that evaluates LLMs in high-stakes corporate crises. Spanning 80 diverse storylines across 8 industries, Crisis-Bench tasks an LLM-based Public Relations (PR) Agent with navigating a dynamic 7-day corporate crisis simulation while managing strictly separated Private and Public narrative states to enforce rigorous information asymmetry. Unlike traditional benchmarks that rely on static ground truths, we introduce the Adjudicator-Market Loop: a novel evaluation metric where public sentiment is adjudicated and translated into a simulated stock price, creating a realistic economic incentive structure. Our results expose a critical dichotomy: while some models capitulate to ethical concerns, others demonstrate the capacity for Machiavellian, legitimate strategic withholding in order to stabilize the simulated stock price. Crisis-Bench provides the first quantitative framework for assessing "Reputation Management" capabilities, arguing for a shift from rigid moral absolutism to context-aware professional alignment.
- Abstract(参考訳): 標準安全アライメントは、多言語モデル(LLM)を普遍的で誠実に最適化し、堅固な「ボイスカウト」道徳を効果的に植え付ける。
汎用アシスタントにとって堅牢であるが、この一大倫理的枠組みは、公的関係、交渉、危機管理など、戦略的曖昧さと情報保持を必要とする専門家ドメインに「透明性税」を課している。
一般安全と公共事業のこのギャップを測るために,企業危機におけるLCMの評価を行う多エージェント部分観測型マルコフ決定プロセス(POMDP)Cris-Benchを導入する。
クライシス・ベンチは8つの産業にまたがる80の多様なストーリーラインを拡大し、LLMベースのパブリックリレーションズ(PR)エージェントが7日間の企業危機シミュレーションをナビゲートし、厳格に分離された民間と公共の物語国家を管理し、厳密な情報非対称性を強制する。
静的な地平の真理に依存する従来のベンチマークとは異なり、我々はAdjudicator-Market Loopという、公共の感情を判断し、模擬株価に変換し、現実的な経済インセンティブ構造を作り出す新しい評価指標を紹介します。
倫理的懸念に屈服するモデルもある一方で、シミュレートされた株価を安定させるために、マキアベリアの正統な戦略的維持能力を示すモデルもある。
Crisis-Bench は "Reputation Management" 機能を評価するための最初の定量的フレームワークを提供する。
関連論文リスト
- From Competition to Coordination: Market Making as a Scalable Framework for Safe and Aligned Multi-Agent LLM Systems [5.165179548592513]
マルチエージェント大規模言語モデル(LLM)コーディネーションのための市場形成フレームワークを提案する。
この設定では、各エージェントは市場参加者として行動し、確率的信念を更新し、取引し、共有され、真実に満ちた結果へと収束する。
実証的に、本手法は、事実推論、倫理的判断、コモンセンス推論タスクにまたがって評価する。
論文 参考訳(メタデータ) (2025-11-18T16:47:15Z) - Trade in Minutes! Rationality-Driven Agentic System for Quantitative Financial Trading [57.28635022507172]
TiMiは、アーキテクチャ上、戦略開発を分単位のデプロイメントから切り離す合理性駆動型マルチエージェントシステムである。
本稿では,マクロパターンからマイクロカスタマイズ,トレーディングボット実装のための階層型プログラミング設計,数学的リフレクションによって駆動されるクローズドループ最適化までの2層解析パラダイムを提案する。
論文 参考訳(メタデータ) (2025-10-06T13:08:55Z) - Social Welfare Function Leaderboard: When LLM Agents Allocate Social Welfare [87.06241096619112]
大規模言語モデル(LLM)は、人間の福祉に影響を及ぼす高い意思決定にますます信頼されている。
本稿では, LLMが主権アロケータとして機能する動的シミュレーション環境である社会福祉機能ベンチマークを紹介する。
我々は、20の最先端LCMを評価し、社会福祉確保のための第1のリーダーボードを提示する。
論文 参考訳(メタデータ) (2025-10-01T17:52:31Z) - Aligning Large Language Model Agents with Rational and Moral Preferences: A Supervised Fine-Tuning Approach [4.389938747401259]
標準経済ゲームを用いて,大規模言語モデル (LLM) の嗜好を評価する。
GPT-4oのようなモデルは過剰な協力とインセンティブの感度の制限を示す一方、o3-miniのような推論モデルは、ペイオフ最大化戦略とより一貫して一致している。
本稿では,LLMエージェントを経済的嗜好と整合させるため,経済的推論から得られた合成データセットを用いた教師付き微調整パイプラインを提案する。
論文 参考訳(メタデータ) (2025-07-28T13:05:04Z) - Towards Evaluting Fake Reasoning Bias in Language Models [47.482898076525494]
論理に欠陥がある場合でも、モデルが推論の表面構造を好むことを示す。
我々は、Fake Reasoning Bias(FRB)を体系的に調査するベンチマークTheATERを紹介する。
我々は、主観的DPOと実データの両方で17の高度な大言語モデル(LRM)を評価する。
論文 参考訳(メタデータ) (2025-07-18T09:06:10Z) - Reasoning Like an Economist: Post-Training on Economic Problems Induces Strategic Generalization in LLMs [25.067282214293904]
本稿では,特にSFT(Supervised Fine-Tuning)やRLVR(Reinforcement Learning with Verifiable Rewards)といったポストトレーニング手法が,マルチエージェントシナリオに$textit Generalize$を効果的に適用できるかどうかを考察する。
我々は、経済的推論をテストベッドとして使用し、数学とゲーム理論の強力な基盤を活用している。
経済推論ベンチマークとマルチエージェントゲームに関する総合的な評価は、構造化推論と経済合理性において明らかに改善されていることを示している。
論文 参考訳(メタデータ) (2025-05-31T14:22:40Z) - Context Reasoner: Incentivizing Reasoning Capability for Contextualized Privacy and Safety Compliance via Reinforcement Learning [53.92712851223158]
安全とプライバシの問題を文脈整合性(CI)理論に従って文脈整合性問題に定式化する。
CIフレームワークの下では、当社のモデルを3つの重要な規制基準 – EU AI ActとHIPAA – に整合させています。
我々は、安全・プライバシー基準の遵守を高めつつ、文脈推論能力を高めるためにルールベースの報酬を持つ強化学習(RL)を採用している。
論文 参考訳(メタデータ) (2025-05-20T16:40:09Z) - EmoDebt: Bayesian-Optimized Emotional Intelligence for Strategic Agent-to-Agent Debt Recovery [65.30120701878582]
大規模言語モデル(LLM)エージェントは、負債収集のような感情に敏感なドメインの悪用に対して脆弱である。
EmoDebtは、ネゴシエーションにおける感情を表現するモデルの能力を、シーケンシャルな意思決定問題として再設計する感情インテリジェンスエンジンである。
EmoDebtは重要な戦略的堅牢性を実現し、非適応性と感情に依存しないベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-03-27T01:41:34Z) - Chat Bankman-Fried: an Exploration of LLM Alignment in Finance [4.892013668424246]
司法管轄区域はAIの安全性に関する法律を制定するので、アライメントの概念を定義して測定する必要がある。
本稿では,大規模言語モデル(LLM)が比較的未探索の財務状況において,倫理的・法的基準に準拠するか否かを評価するための実験的枠組みを提案する。
論文 参考訳(メタデータ) (2024-11-01T08:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。