論文の概要: On the Effectiveness of Minisum Approval Voting in an Open Strategy
Setting: An Agent-Based Approach
- arxiv url: http://arxiv.org/abs/2009.04912v2
- Date: Fri, 25 Sep 2020 15:27:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 03:24:47.132335
- Title: On the Effectiveness of Minisum Approval Voting in an Open Strategy
Setting: An Agent-Based Approach
- Title(参考訳): オープン戦略におけるミニサム承認投票の有効性について-エージェントベースアプローチ
- Authors: Joop van de Heijning, Stephan Leitner, Alexandra Rausch
- Abstract要約: 本研究は、戦略策定プロセスの幅広い参加者が組織のパフォーマンスに与える影響について研究する。
エージェントベースのシミュレーションは、大規模で多様な集団から生み出されたアイデアの数の増加と、その後の嗜好の集約が、組織のパフォーマンスランドスケープにおける高いピークの迅速な発見につながることを実証している。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work researches the impact of including a wider range of participants in
the strategy-making process on the performance of organizations which operate
in either moderately or highly complex environments. Agent-based simulation
demonstrates that the increased number of ideas generated from larger and
diverse crowds and subsequent preference aggregation lead to rapid discovery of
higher peaks in the organization's performance landscape. However, this is not
the case when the expansion in the number of participants is small. The results
confirm the most frequently mentioned benefit in the Open Strategy literature:
the discovery of better performing strategies.
- Abstract(参考訳): この研究は、中程度または高度に複雑な環境で活動する組織のパフォーマンスに、戦略立案プロセスに幅広い参加者を含めることの影響を調査している。
エージェントベースのシミュレーションは、大規模で多様な集団から生み出されたアイデアの数の増加と、その後の嗜好の集約が、組織のパフォーマンスランドスケープにおける高いピークの迅速な発見につながることを示した。
しかし、参加者数の増加が小さい場合はそうではない。
その結果、オープンストラテジーの文献で最も頻繁に言及される利点は、より良いパフォーマンス戦略の発見である。
関連論文リスト
- From Novice to Expert: LLM Agent Policy Optimization via Step-wise Reinforcement Learning [62.54484062185869]
本稿では,エージェントの強化学習プロセスの最適化にステップワイド報酬を利用するStepAgentを紹介する。
エージェント反射とポリシー調整を容易にする暗黙の逆・逆の強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T10:35:11Z) - Accelerating Task Generalisation with Multi-Level Hierarchical Options [1.6574413179773757]
フラクチャクラスタオプション(FraCOs)は、難解な一般化タスクにおける最先端のパフォーマンスを達成する階層的な強化学習手法である。
いくつかの複雑な手続き的に生成された環境で、最先端の深層強化学習アルゴリズムに対してFraCOを評価した。
論文 参考訳(メタデータ) (2024-11-05T11:00:09Z) - Action abstractions for amortized sampling [49.384037138511246]
本稿では、政策最適化プロセスに行動抽象化(高レベルの行動)の発見を組み込むアプローチを提案する。
我々のアプローチでは、多くの高次軌道にまたがってよく使われるアクション列を反復的に抽出し、それらをアクション空間に追加する単一のアクションにチャンキングする。
論文 参考訳(メタデータ) (2024-10-19T19:22:50Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [76.95062553043607]
大きな言語モデル(LLM)を評価することは、その能力を理解し、実践的なアプリケーションへの統合を促進するために不可欠である。
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - Quantifying Agent Interaction in Multi-agent Reinforcement Learning for
Cost-efficient Generalization [63.554226552130054]
マルチエージェント強化学習(MARL)における一般化の課題
エージェントが未確認のコプレイヤーに影響される程度は、エージェントのポリシーと特定のシナリオに依存する。
与えられたシナリオと環境におけるエージェント間の相互作用強度を定量化する指標であるLoI(Level of Influence)を提示する。
論文 参考訳(メタデータ) (2023-10-11T06:09:26Z) - Enhance Multi-domain Sentiment Analysis of Review Texts through
Prompting Strategies [1.335032286337391]
感情分析タスクの推進過程を定式化し、感情分析に適した2つの新しい戦略を導入する。
提案した感情分析手法の有効性を評価するために,3つの異なる領域データセットの比較実験を行った。
その結果,提案手法の採用により,感情分析の精度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-05T08:44:23Z) - Strategically Efficient Exploration in Competitive Multi-agent
Reinforcement Learning [25.041622707261897]
本研究は,非協調的マルチエージェント環境における楽観的な探索の役割を理解することを目的とする。
ゼロサムゲームにおいて、楽観的な探索は、学習者が戦略的なプレーとは無関係な状態空間のサンプリング部分を無駄にしてしまうことを示します。
この問題に対処するため、マルコフゲームにおいて戦略的に効率的な探索という形式的概念を導入し、これを有限マルコフゲームのための戦略的に効率的な2つの学習アルゴリズムの開発に利用する。
論文 参考訳(メタデータ) (2021-07-30T15:22:59Z) - Heterogeneous Explore-Exploit Strategies on Multi-Star Networks [0.0]
エージェントがマルチスターネットワーク上で通信する分散帯域幅問題について検討する。
モデル不規則ネットワークグラフとしてマルチスターを用いた異種探索探索戦略を提案する。
論文 参考訳(メタデータ) (2020-09-02T20:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。