論文の概要: Subject Matter Expertise vs Professional Management in Collective Sequential Decision Making
- arxiv url: http://arxiv.org/abs/2509.15263v1
- Date: Thu, 18 Sep 2025 08:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.832271
- Title: Subject Matter Expertise vs Professional Management in Collective Sequential Decision Making
- Title(参考訳): 集合的順序決定における専門知識と専門的管理
- Authors: David Shoresh, Yonatan Loewenstein,
- Abstract要約: 専門職と専門職の議論」を定量的かつ客観的にどう扱うかは明らかになっていない。
このタスクを制御された環境でモデル化するには、相互依存的な決定を伴う複雑なシーケンシャルゲームであるチェスを利用する。
最小限の閾値を超えた課題の専門知識は、チームのシナジーに大きく寄与しないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Your company's CEO is retiring. You search for a successor. You can promote an employee from the company familiar with the company's operations, or recruit an external professional manager. Who should you prefer? It has not been clear how to address this question, the "subject matter expertise vs. professional manager debate", quantitatively and objectively. We note that a company's success depends on long sequences of interdependent decisions, with often-opposing recommendations of diverse board members. To model this task in a controlled environment, we utilize chess - a complex, sequential game with interdependent decisions which allows for quantitative analysis of performance and expertise (since the states, actions and game outcomes are well-defined). The availability of chess engines differing in style and expertise, allows scalable experimentation. We considered a team of (computer) chess players. At each turn, team members recommend a move and a manager chooses a recommendation. We compared the performance of two manager types. For manager as "subject matter expert", we used another (computer) chess player that assesses the recommendations of the team members based on its own chess expertise. We examined the performance of such managers at different strength levels. To model a "professional manager", we used Reinforcement Learning (RL) to train a network that identifies the board positions in which different team members have relative advantage, without any pretraining in chess. We further examined this network to see if any chess knowledge is acquired implicitly. We found that subject matter expertise beyond a minimal threshold does not significantly contribute to team synergy. Moreover, performance of a RL-trained "professional" manager significantly exceeds that of even the best "expert" managers, while acquiring only limited understanding of chess.
- Abstract(参考訳): あなたの会社のCEOは引退しています。
あなたは後継者を探します。
従業員を会社の運営に詳しい会社から昇進させたり、外部のプロマネージャーを雇ったりできる。
あなたは誰が好きですか。
この問題にどのように対処するかは、定量的かつ客観的に「主観的な専門知識対専門職の議論」をどう扱うかは明らかになっていない。
企業の成功は、多岐にわたる取締役会メンバーの推薦を伴う、相互依存的な意思決定の長いシーケンスに依存している点に留意する。
このタスクを制御された環境でモデル化するために、我々は、パフォーマンスと専門知識(状態、アクション、ゲーム結果が適切に定義されているため)の定量的分析を可能にする、相互依存的な決定を伴う複雑なシーケンシャルゲームであるチェスを利用する。
スタイルと専門性が異なるチェスエンジンの可用性は、スケーラブルな実験を可能にする。
私たちは(コンピュータ)チェス選手のチームを検討した。
それぞれのターンで、チームメンバは動きを推奨し、マネージャはレコメンデーションを選択する。
私たちは2種類のマネージャーのパフォーマンスを比較した。
サブジェクトマターエキスパート"としてマネージャには、別の(コンピュータ)チェスプレーヤーを使って、独自のチェスの専門知識に基づいて、チームメンバの推薦を評価しました。
このようなマネージャのパフォーマンスを,異なる強度レベルで検証した。
プロフェッショナルマネージャ”をモデル化するために、強化学習(Reinforcement Learning, RL)を使用して、チェスを予習することなく、異なるチームメンバーが相対的に有利な立場にあるボードを識別するネットワークをトレーニングしました。
さらに、チェスの知識が暗黙的に取得されるかどうかを確認するために、このネットワークを検証した。
最小限の閾値を超えた課題の専門知識は、チームのシナジーに大きく寄与しないことがわかった。
さらに、RLで訓練された"専門"マネージャのパフォーマンスは、チェスの限られた理解を得ながら、最高の"専門"マネージャよりもはるかに優れている。
関連論文リスト
- Can Large Language Models Develop Strategic Reasoning? Post-training Insights from Learning Chess [54.5355907369231]
チェスにおける強化学習(RL)を通して,大規模言語モデル (LLM) が戦略的推論能力を発達させることができるかを検討する。
以上の結果から, 蒸留法に基づく高密度報酬は, 希少な二進報酬よりも優れていることが示唆された。
我々は、チェス推論訓練におけるSFTおよびRLの略語を提供し、この制限が、事前訓練されたモデルのチェスに対する内部理解の欠如に起因する証拠を見つける。
論文 参考訳(メタデータ) (2025-07-01T13:16:34Z) - A Behavior-Based Knowledge Representation Improves Prediction of Players' Moves in Chess by 25% [2.232417329532027]
本稿では,人間の次の動きを予測するために,エキスパート知識と機械学習技術を組み合わせた新しいアプローチを提案する。
ドメインの専門知識に根ざした特徴工学を適用して,中間レベルのチェス選手の動きのパターンを明らかにする。
我々の方法論は、人間の行動を予測するための有望なフレームワークを提供し、AIと人間とコンピュータの相互作用の両方の分野を前進させる。
論文 参考訳(メタデータ) (2025-04-07T18:49:00Z) - Explore the Reasoning Capability of LLMs in the Chess Testbed [45.12891789312405]
我々は,注釈付き戦略と戦術を統合することで,チェスにおける大規模言語モデルの推論能力を向上させることを提案する。
我々はLLaMA-3-8Bモデルを微調整し、より優れたチェスの動きを選択するタスクにおいて、最先端の商用言語モデルと比較する。
論文 参考訳(メタデータ) (2024-11-11T01:42:56Z) - Optimizing Risk-averse Human-AI Hybrid Teams [1.433758865948252]
本稿では,標準化された強化学習スキームを通じて,最良デリゲート法を学習するマネージャを提案する。
いくつかのグリッド環境において,マネージャのパフォーマンスの最適性を示す。
結果から、マネージャは望ましいデリゲートをうまく習得でき、その結果、チームパスは、ほぼ、あるいは正確には最適であることがわかった。
論文 参考訳(メタデータ) (2024-03-13T09:49:26Z) - All by Myself: Learning Individualized Competitive Behaviour with a
Contrastive Reinforcement Learning optimization [57.615269148301515]
競争ゲームのシナリオでは、エージェントのセットは、彼らの目標を最大化し、敵の目標を同時に最小化する決定を学習する必要があります。
本稿では,競争ゲームの表現を学習し,特定の相手の戦略をどうマップするか,それらを破壊するかを学習する3つのニューラルネットワーク層からなる新しいモデルを提案する。
我々の実験は、オフライン、オンライン、競争特化モデル、特に同じ対戦相手と複数回対戦した場合に、我々のモデルがより良いパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2023-10-02T08:11:07Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - Coach-Player Multi-Agent Reinforcement Learning for Dynamic Team
Composition [88.26752130107259]
現実世界のマルチエージェントシステムでは、異なる能力を持つエージェントがチーム全体の目標を変更することなく参加または離脱する可能性がある。
この問題に取り組むコーチ・プレイヤー・フレームワーク「COPA」を提案します。
1)コーチと選手の両方の注意メカニズムを採用し、2)学習を正規化するための変動目標を提案し、3)コーチが選手とのコミュニケーションのタイミングを決定するための適応的なコミュニケーション方法を設計する。
論文 参考訳(メタデータ) (2021-05-18T17:27:37Z) - Assessing Game Balance with AlphaZero: Exploring Alternative Rule Sets
in Chess [5.3524101179510595]
私たちはAlphaZeroを使って、新しいチェスの変種を創造的に探索し、設計しています。
チェスのルールに原子的変化を含む他の9つの変種を比較した。
AlphaZeroを用いて各変種に対する準最適戦略を学習することにより、これらの変種が採用された場合、強い人間プレイヤー間のゲームがどのように見えるかを決定する。
論文 参考訳(メタデータ) (2020-09-09T15:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。