論文の概要: From Model Design to Organizational Design: Complexity Redistribution and Trade-Offs in Generative AI
- arxiv url: http://arxiv.org/abs/2506.22440v1
- Date: Tue, 10 Jun 2025 15:22:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.339364
- Title: From Model Design to Organizational Design: Complexity Redistribution and Trade-Offs in Generative AI
- Title(参考訳): モデル設計から組織設計へ:ジェネレーティブAIにおける複雑さの再分配とトレードオフ
- Authors: Sharique Hasan, Alexander Oettl, Sampsa Samila,
- Abstract要約: 我々は、AIを入力コストの単純な削減と見なすことは、2つの重要なダイナミクスを見落としていると論じる。
したがって、GASのトレードオフは消滅せず、ユーザから組織に移管される。
この研究は、スケーラブルな認知がいかに複雑さを移動させるかを明らかにすることで、AI戦略を前進させる。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces the Generality-Accuracy-Simplicity (GAS) framework to analyze how large language models (LLMs) are reshaping organizations and competitive strategy. We argue that viewing AI as a simple reduction in input costs overlooks two critical dynamics: (a) the inherent trade-offs among generality, accuracy, and simplicity, and (b) the redistribution of complexity across stakeholders. While LLMs appear to defy the traditional trade-off by offering high generality and accuracy through simple interfaces, this user-facing simplicity masks a significant shift of complexity to infrastructure, compliance, and specialized personnel. The GAS trade-off, therefore, does not disappear but is relocated from the user to the organization, creating new managerial challenges, particularly around accuracy in high-stakes applications. We contend that competitive advantage no longer stems from mere AI adoption, but from mastering this redistributed complexity through the design of abstraction layers, workflow alignment, and complementary expertise. This study advances AI strategy by clarifying how scalable cognition relocates complexity and redefines the conditions for technology integration.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)が組織や競争戦略をどのように変えているかを分析するために,GAS(Generality-Accuracy-Simplicity)フレームワークを紹介する。
私たちは、AIを入力コストの単純な削減と見なすことは、2つの重要なダイナミクスを見落としていると論じている。
(a)一般性、正確性、単純性、及び本質的なトレードオフ
(b)利害関係者間での複雑性の再分配。
LLMは単純なインターフェースを通じて高い汎用性と正確性を提供することによって、従来のトレードオフに反するように見えるが、このユーザ対応のシンプルさは、インフラストラクチャ、コンプライアンス、および専門的な人材への、重大な複雑さのシフトを隠蔽している。
したがって、GASのトレードオフは消えることはないが、ユーザから組織に移行し、特に高精細なアプリケーションの正確性に関して、新たな管理上の課題を生み出します。
競争上の優位性はもはや単なるAIの採用ではなく、抽象レイヤの設計、ワークフローの整合性、補完的な専門知識を通じて、この再分散された複雑さを習得することにある、と私たちは主張しています。
この研究は、スケーラブルな認知がいかに複雑さを移動させ、技術統合の条件を再定義するかを明らかにすることで、AI戦略を前進させる。
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Flow State: Humans Enabling AI Systems to Program Themselves [0.24578723416255752]
我々は,Human-AI共同設計を中心としたプラットフォームであるPocketflowを紹介した。
PocketflowはPythonフレームワークであり、意図的に最小限だが相乗的なコア抽象化セットの上に構築されている。
非常に小さなコードしか持たない堅牢でベンダに依存しない基盤を提供し、明らかにオーバーヘッドを減らします。
論文 参考訳(メタデータ) (2025-04-03T05:25:46Z) - VERUS-LM: a Versatile Framework for Combining LLMs with Symbolic Reasoning [8.867818326729367]
本稿では,ニューロシンボリック推論の新しい枠組みであるVERUS-LMを紹介する。
VERUS-LMは汎用的なプロンプト機構を採用し、クエリからドメイン知識を明確に分離する。
提案手法は,LLMを著しく上回る,新しいデータセットの多種多様な推論に成功していることを示す。
論文 参考訳(メタデータ) (2025-01-24T14:45:21Z) - Sparse Mixture-of-Experts for Compositional Generalization: Empirical Evidence and Theoretical Foundations of Optimal Sparsity [89.81738321188391]
本研究では,SMoEモデルにおけるタスク複雑性と最適空間の関係について検討する。
最適な間隔は、最小限のアクティベーション(1-2専門家)とフルアクティベーションの間にあり、その正確な数はタスクの複雑さに比例する。
論文 参考訳(メタデータ) (2024-10-17T18:40:48Z) - AT-MoE: Adaptive Task-planning Mixture of Experts via LoRA Approach [0.6906005491572401]
本稿では,Adaptive Task-planing Mixture of Experts(AT-MoE)アーキテクチャを紹介する。
まず、LoRAアプローチを用いてタスク固有の専門家を訓練し、専門分野における問題解決能力と解釈可能性を高める。
次に,複雑なタスク命令に基づくモジュール融合を最適化する階層適応型グループルーティングモジュールを提案する。
論文 参考訳(メタデータ) (2024-10-12T13:03:15Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Outlier-Aware Training for Low-Bit Quantization of Structural
Re-Parameterized Networks [7.446898033580747]
我々は、OABN(Outlier Aware Batch Normalization)と呼ばれる、オペレータレベルのトレーニング改善を提案する。
また,クラスタリングに基づくQAT(Quantization-Aware Training)のための非一様量子化フレームワークであるClusterQATを開発した。
論文 参考訳(メタデータ) (2024-02-11T13:26:40Z) - Inducing Systematicity in Transformers by Attending to Structurally
Quantized Embeddings [60.698130703909804]
トランスフォーマーは、複雑なデータセットでトレーニングされた後、構造と実体の新規な構成に一般化する。
本稿では,SQ-Transformerを提案する。
SQ-Transformerは,複数の低複雑さ意味解析および機械翻訳データセット上で,バニラ変換器よりも強い構成一般化を実現することを示す。
論文 参考訳(メタデータ) (2024-02-09T15:53:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。