論文の概要: The Machine Learning Canvas: Empirical Findings on Why Strategy Matters More Than AI Code Generation
- arxiv url: http://arxiv.org/abs/2601.01839v1
- Date: Mon, 05 Jan 2026 07:02:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.831508
- Title: The Machine Learning Canvas: Empirical Findings on Why Strategy Matters More Than AI Code Generation
- Title(参考訳): 機械学習のキャンバス:AIコード生成よりも戦略が重要である理由を実証する
- Authors: Martin Prause,
- Abstract要約: 機械学習(ML)プロジェクトの80%以上は、本当のビジネス価値を提供できない。
我々は,150人のデータサイエンティストを調査し,統計モデルを用いて回答を分析した。
AIアシスタントはコーディングを高速化するが、成功は保証しない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the growing popularity of AI coding assistants, over 80% of machine learning (ML) projects fail to deliver real business value. This study creates and tests a Machine Learning Canvas, a practical framework that combines business strategy, software engineering, and data science in order to determine the factors that lead to the success of ML projects. We surveyed 150 data scientists and analyzed their responses using statistical modeling. We identified four key success factors: Strategy (clear goals and planning), Process (how work gets done), Ecosystem (tools and infrastructure), and Support (organizational backing and resources). Our results show that these factors are interconnected - each one affects the next. For instance, strong organizational support results in a clearer strategy (β= 0.432, p < 0.001), which improves work processes (β= 0.428, p < 0.001) and builds better infrastructure (β= 0.547, p < 0.001). Together, these elements determine whether a project succeeds. The surprising finding? Although AI assistants make coding faster, they don't guarantee project success. AI assists with the "how" of coding but cannot replace the "why" and "what" of strategic thinking.
- Abstract(参考訳): AIコーディングアシスタントの人気が高まっているにもかかわらず、機械学習(ML)プロジェクトの80%以上が本当のビジネス価値を提供できていない。
この研究は、MLプロジェクトの成功につながる要因を決定するために、ビジネス戦略、ソフトウェアエンジニアリング、データサイエンスを組み合わせた実践的なフレームワークである機械学習Canvasを作成し、テストする。
我々は,150人のデータサイエンティストを調査し,統計モデルを用いて回答を分析した。
戦略(明確な目標と計画)、プロセス(作業の方法)、エコシステム(ツールとインフラ)、サポート(組織的な支援とリソース)の4つの主要な成功要因を特定しました。
私たちの結果は、これらの要因が相互に相互に関係していることを示しています。
例えば、強力な組織支援はより明確な戦略(β=0.432, p < 0.001)をもたらし、作業プロセス(β=0.428, p < 0.001)を改善し、より良いインフラ(β=0.547, p < 0.001)を構築する。
これらの要素は共に、プロジェクトが成功するかどうかを決定する。
意外な発見?
AIアシスタントはコーディングを高速化するが、プロジェクトの成功を保証するものではない。
AIはコーディングの“方法”を支援するが、戦略的思考の“なぜ”や“何”を置き換えることはできない。
関連論文リスト
- How Students Use Generative AI for Software Testing: An Observational Study [3.2402950370430497]
本研究では、初心者ソフトウェア開発者がエンジニアリングユニットテストのために生成AIとどのように相互作用するかを検討する。
我々は,テストアイデアとテスト実装が生成AIに由来するか,参加者によって定義された4つのインタラクション戦略を特定した。
学生は、時間節約、認知負荷の低減、テスト思考のサポートなどの利点を報告したが、信頼の低下、テスト品質の懸念、所有権の欠如といった欠点も指摘した。
論文 参考訳(メタデータ) (2025-10-12T11:31:41Z) - Barbarians at the Gate: How AI is Upending Systems Research [58.95406995634148]
システム研究は、新しいパフォーマンス指向アルゴリズムの設計と評価に長年注力してきたが、AI駆動のソリューション発見には特に適している、と私たちは主張する。
このアプローチをAI駆動システム研究(ADRS)と呼び、ソリューションを反復的に生成し、評価し、洗練する。
我々の研究結果は、AI時代のシステム研究の実践に急激な適応の必要性と破壊的な可能性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-10-07T17:49:24Z) - Rethinking Technology Stack Selection with AI Coding Proficiency [49.617080246389605]
大規模言語モデル(LLM)は今やソフトウェア開発の不可欠な部分です。
我々は、LLMが与えられた技術を用いて高品質なコードスニペットを生成することができる、AI符号化能力という概念を提案する。
我々は,170のサードパーティ製ライブラリと61のタスクシナリオを対象とした,AI習熟度に関する初の総合的研究を行った。
論文 参考訳(メタデータ) (2025-09-14T06:56:47Z) - The SPACE of AI: Real-World Lessons on AI's Impact on Developers [0.807084206814932]
我々は,SPACEフレームワークの次元にまたがるAIの影響,すなわち満足度,パフォーマンス,アクティビティ,コラボレーション,効率を,開発者がどのように認識するかを研究する。
AIは広く採用されており、生産性の向上、特にルーチンタスクに広く見なされている。
開発者の報告によると、効率性と満足度は向上し、コラボレーションへの影響の証拠は少なくなった。
論文 参考訳(メタデータ) (2025-07-31T21:45:54Z) - Scaling of Search and Learning: A Roadmap to Reproduce o1 from Reinforcement Learning Perspective [77.94874338927492]
OpenAIは、o1の背後にある主要な技術は強化学習であると主張している。
本稿では、強化学習の観点から、o1を達成するためのロードマップを分析する。
論文 参考訳(メタデータ) (2024-12-18T18:24:47Z) - Generating Java Methods: An Empirical Assessment of Four AI-Based Code
Assistants [5.32539007352208]
私たちは、人気のあるAIベースのコードアシスタントであるGitHub Copilot、Tabnine、ChatGPT、Google Bardの4つの有効性を評価します。
その結果、Copilotは他のテクニックよりも正確であることが多いが、他のアプローチによって完全に仮定されるアシスタントは存在しないことが判明した。
論文 参考訳(メタデータ) (2024-02-13T12:59:20Z) - MLAgentBench: Evaluating Language Agents on Machine Learning Experimentation [96.71370747681078]
我々は,CIFAR-10におけるモデル性能の改善から,BabyLMのような最近の研究課題まで,13のタスクからなるMLAgentBenchを紹介した。
各タスクに対して、エージェントはファイルの読み書き、コードの実行、出力の検査などのアクションを実行することができる。
我々は、Claude v1.0、Claude v2.1、Claude v3 Opus、GPT-4、GPT-4-turbo、Gemini-Pro、Mixtralに基づいてベンチマークエージェントをベンチマークし、Claude v3 Opusエージェントが成功率の点で最高であることを示す。
論文 参考訳(メタデータ) (2023-10-05T04:06:12Z) - Why is the winner the best? [78.74409216961632]
IEEE I SBI 2021 と MICCAI 2021 の範囲で実施した80のコンペすべてを対象に,マルチセンターで実施した。
勝者となるソリューションとしては、マルチタスク学習(63%)、マルチステージパイプライン(61%)、拡大(100%)、画像前処理(97%)、データキュレーション(79%)、後処理(66%)などがある。
高ランクのチームでは、メソッド設計におけるメトリクスの反映と、障害ケースの分析と処理に焦点を当てた2つの中核的な開発戦略が目立った。
論文 参考訳(メタデータ) (2023-03-30T21:41:42Z) - aiSTROM -- A roadmap for developing a successful AI strategy [3.5788754401889014]
Rackspace Technologyの最近の調査によると、AI研究開発プロジェクトの34%が失敗または放棄されている。
我々は、マネージャにAI戦略を成功させる新しい戦略フレームワーク、aiSTROMを提案する。
論文 参考訳(メタデータ) (2021-06-25T08:40:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。