論文の概要: Using Large Language Models to Construct Virtual Top Managers: A Method for Organizational Research
- arxiv url: http://arxiv.org/abs/2601.18512v1
- Date: Mon, 26 Jan 2026 14:17:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.861353
- Title: Using Large Language Models to Construct Virtual Top Managers: A Method for Organizational Research
- Title(参考訳): 大規模言語モデルによる仮想トップマネージャの構築--組織研究のための方法
- Authors: Antonio Garzon-Vico, Krithika Sharon Komalapati, Arsalan Shahid, Jan Rosier,
- Abstract要約: 本研究では,大規模言語モデルを用いて実トップマネージャの仮想ペルソナを作成する手法を提案する。
個人リーダーの意思決定をシミュレートするLCMベースの参加者を構築した。
以上の結果から, 理論的に足場のあるペルソナは, 人間の標本で観察された道徳的判断に近似することが示唆された。
- 参考スコア(独自算出の注目度): 0.1679937788852768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study introduces a methodological framework that uses large language models to create virtual personas of real top managers. Drawing on real CEO communications and Moral Foundations Theory, we construct LLM-based participants that simulate the decision-making of individual leaders. Across three phases, we assess construct validity, reliability, and behavioral fidelity by benchmarking these virtual CEOs against human participants. Our results indicate that theoretically scaffolded personas approximate the moral judgements observed in human samples, suggesting that LLM-based personas can serve as credible and complementary tools for organizational research in contexts where direct access to executives is limited. We conclude by outlining implications for future research using LLM-based personas in organizational settings.
- Abstract(参考訳): 本研究では,大規模言語モデルを用いて実トップマネージャの仮想ペルソナを作成する手法を提案する。
実際のCEOのコミュニケーションとモラル財団理論に基づいて、個人リーダーの意思決定をシミュレートしたLCMベースの参加者を構築します。
3つのフェーズで、これらの仮想CEOを人間の参加者に対してベンチマークすることで、妥当性、信頼性、行動の忠実度を評価する。
以上の結果から,LLMに基づくペルソナは,経営陣への直接アクセスが制限された文脈において,組織研究の信頼性と補完的ツールとして機能することが示唆された。
組織環境におけるLLMに基づくペルソナを用いた今後の研究の意義を概説して結論づける。
関連論文リスト
- How Good are Foundation Models in Step-by-Step Embodied Reasoning? [79.15268080287505]
身体的エージェントは、安全で空間的に整合性があり、文脈に根ざした決定をしなければならない。
大規模マルチモーダルモデルの最近の進歩は、視覚的理解と言語生成において有望な能力を示している。
私たちのベンチマークには、10のタスクと8のエボディメントにまたがる詳細なステップバイステップ推論を備えた1.1k以上のサンプルが含まれています。
論文 参考訳(メタデータ) (2025-09-18T17:56:30Z) - Rationality Check! Benchmarking the Rationality of Large Language Models [15.612266760229945]
大規模言語モデル (LLM) の完全有理性を評価するための最初のベンチマークを提案する。
このベンチマークには、使い易いツールキット、広範な実験結果、LLMが理想化された人間の合理性から収束して分岐する場所を照らす分析が含まれている。
論文 参考訳(メタデータ) (2025-09-18T02:23:56Z) - Approximating Human Strategic Reasoning with LLM-Enhanced Recursive Reasoners Leveraging Multi-agent Hypergames [3.5083201638203154]
我々は、洗練された推論者に適したロールベースのマルチエージェント戦略相互作用フレームワークを実装した。
我々は,最新のLCMの推論能力を評価するために,ワンショット2プレーヤ美容コンテストを用いた。
実験の結果,人間行動の近似と最適解への到達の両面で,人工推論がベースラインモデルより優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-11T10:37:20Z) - IDEA: Enhancing the Rule Learning Ability of Large Language Model Agent through Induction, Deduction, and Abduction [3.961279440272764]
対話型環境下での大規模言語モデルのルール学習能力を評価するためにRULEARNを導入する。
誘導, 誘引, アブダクションのプロセスを統合する新しい推論フレームワークであるIDEAを提案する。
5つの代表的なLCMを含むIDEAフレームワークの評価は,ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-19T23:37:07Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。