論文の概要: Bridging Theory and Practice: A Stochastic Learning-Optimization Model for Resilient Automotive Supply Chains
- arxiv url: http://arxiv.org/abs/2511.06479v1
- Date: Sun, 09 Nov 2025 17:51:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.971588
- Title: Bridging Theory and Practice: A Stochastic Learning-Optimization Model for Resilient Automotive Supply Chains
- Title(参考訳): ブリッジ理論と実践: レジリエンスな自動車供給チェーンのための確率的学習最適化モデル
- Authors: Muhammad Shahnawaz, Adeel Safder,
- Abstract要約: サプライチェーンの混乱と不安定な需要は、ジャスト・イン・タイム(JIT)製造に大きく依存している英国の自動車業界にとって大きな課題となっている。
本稿では,ベイズ推論と在庫最適化を統合した新しい学習最適化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supply chain disruptions and volatile demand pose significant challenges to the UK automotive industry, which relies heavily on Just-In-Time (JIT) manufacturing. While qualitative studies highlight the potential of integrating Artificial Intelligence (AI) with traditional optimization, a formal, quantitative demonstration of this synergy is lacking. This paper introduces a novel stochastic learning-optimization framework that integrates Bayesian inference with inventory optimization for supply chain management (SCM). We model a two-echelon inventory system subject to stochastic demand and supply disruptions, comparing a traditional static optimization policy against an adaptive policy where Bayesian learning continuously updates parameter estimates to inform stochastic optimization. Our simulations over 365 periods across three operational scenarios demonstrate that the integrated approach achieves 7.4\% cost reduction in stable environments and 5.7\% improvement during supply disruptions, while revealing important limitations during sudden demand shocks due to the inherent conservatism of Bayesian updating. This work provides mathematical validation for practitioner observations and establishes a formal framework for understanding AI-driven supply chain resilience, while identifying critical boundary conditions for successful implementation.
- Abstract(参考訳): サプライチェーンの混乱と不安定な需要は、ジャスト・イン・タイム(JIT)製造に大きく依存している英国の自動車業界にとって大きな課題となっている。
定性的研究は、人工知能(AI)と従来の最適化を統合する可能性を強調しているが、このシナジーの形式的で定量的な実証は欠如している。
本稿では,ベイジアン推論と在庫最適化を統合した,サプライチェーン管理のための確率的学習最適化フレームワークを提案する。
我々は,確率的需要と供給の混乱を考慮した2段階の在庫管理システムをモデル化し,ベイズ学習がパラメータ推定を継続的に更新し,確率的最適化を通知する適応的政策と比較した。
3つの運用シナリオにまたがる365回のシミュレーションでは, 安定環境におけるコストの7.4倍の削減, 供給破壊時の5.7倍の改善を実現し, ベイジアン更新の本質的保守性による急激な需要ショック時の重要な制約を明らかにした。
この研究は、実践者の観察に数学的検証を提供し、AI駆動サプライチェーンのレジリエンスを理解するための正式なフレームワークを確立し、実装を成功させるために重要な境界条件を特定します。
関連論文リスト
- BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive Clipping [69.74252624161652]
適応クリッピング(BAPO)を用いたBAlanced Policy Optimizationを提案する。
BAPOはクリッピングバウンダリを動的に調整し、適応的に正と負のコントリビューションを再バランスさせ、エントロピーを保持し、RL最適化を安定化させる。
AIME 2024とAIME 2025ベンチマークでは、7B BAPOモデルがSkyWork-OR1-7Bのようなオープンソースモデルを上回っています。
論文 参考訳(メタデータ) (2025-10-21T12:55:04Z) - OmniQuality-R: Advancing Reward Models Through All-Encompassing Quality Assessment [55.59322229889159]
我々は,マルチタスク品質推論を連続的かつ解釈可能な報酬信号に変換する統一報酬モデリングフレームワークOmniQuality-Rを提案する。
我々は、推論強化報酬モデルデータセットを使用して、教師付き微調整のための信頼性の高いチェーンオブ思考データセットを構築します。
OmniQuality-Rは,美的品質評価,技術的品質評価,テキスト画像アライメントという3つの重要なIQAタスクで評価する。
論文 参考訳(メタデータ) (2025-10-12T13:46:28Z) - Stabilizing Policy Gradients for Sample-Efficient Reinforcement Learning in LLM Reasoning [77.92320830700797]
強化学習は、大規模言語モデルの推論機能を実現する上で中心的な役割を果たしてきた。
本稿では,ポリシー更新時の曲率情報を追跡し,活用するトラクタブルな計算フレームワークを提案する。
アルゴリズムであるCurvature-Aware Policy Optimization (CAPO)は、不安定な更新に寄与するサンプルを特定し、それらをマスクアウトする。
論文 参考訳(メタデータ) (2025-10-01T12:29:32Z) - TCPO: Thought-Centric Preference Optimization for Effective Embodied Decision-making [75.29820290660065]
本稿では,効果的な具体的意思決定のための思考中心推論最適化(TCPO)を提案する。
モデルの中間的推論プロセスの整合性を強調し、モデル劣化の問題を緩和する。
ALFWorld環境での実験では、平均成功率は26.67%であり、RL4VLMよりも6%向上している。
論文 参考訳(メタデータ) (2025-09-10T11:16:21Z) - Deep RL Dual Sourcing Inventory Management with Supply and Capacity Risk Awareness [4.583289433858458]
介入モデルを利用して大規模最適化問題に強化学習(RL)を効率的に適用する方法を検討する。
我々は,サプライチェーン最適化におけるマルチソース多周期在庫管理問題である,現実世界の挑戦的アプリケーションに対するアプローチを実証する。
論文 参考訳(メタデータ) (2025-07-19T02:44:45Z) - The Dual-use Dilemma in LLMs: Do Empowering Ethical Capacities Make a Degraded Utility? [54.18519360412294]
大きな言語モデル(LLM)は、安全のための有害な要求を拒否することと、ユーティリティのための正当な要求を収容することのバランスをとる必要がある。
本稿では,DPO(Direct Preference Optimization)に基づくアライメントフレームワークを提案する。
我々は,DeepSeek-R1をベンチマークでテストした結果を解析し,この高い評価を得たモデルがもたらす批判的倫理的懸念を明らかにする。
論文 参考訳(メタデータ) (2025-01-20T06:35:01Z) - An Innovative Data-Driven and Adaptive Reinforcement Learning Approach for Context-Aware Prescriptive Process Monitoring [3.4437362489150254]
本稿では,Fun-Tuned Offline Reinforcement Learning Augmented Process Sequence Optimizationという新しいフレームワークを提案する。
FORLAPSは、状態依存型報酬形成機構によって強化された学習を活用して、ビジネスプロセスにおける最適な実行経路を特定することを目的としている。
また,FOLAPSは資源使用時間の31%削減,プロセス時間の23%削減を実現している。
論文 参考訳(メタデータ) (2025-01-17T20:31:35Z) - Learning Optimization Proxies for Large-Scale Security-Constrained
Economic Dispatch [11.475805963049808]
SCED(Security-Constrained Economic Dispatch)は、送信システムオペレーター(TSO)の基本最適化モデルである
本稿では,SCEDの最適解をミリ秒で予測できる機械学習(ML)モデルとして,SCEDの最適化プロキシを学習することを提案する。
数値実験は、フランスの送信システム上で報告され、リアルタイム操作と互換性のある時間枠内で、その手法が生成できることを実証する。
論文 参考訳(メタデータ) (2021-12-27T00:44:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。