論文の概要: Optimal Trade and Industrial Policies in the Global Economy: A Deep Learning Framework
- arxiv url: http://arxiv.org/abs/2407.17731v1
- Date: Thu, 25 Jul 2024 03:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:27:36.618766
- Title: Optimal Trade and Industrial Policies in the Global Economy: A Deep Learning Framework
- Title(参考訳): グローバル経済における最適貿易政策と産業政策--深層学習の枠組み
- Authors: Zi Wang, Xingcheng Xu, Yanqing Yang, Xiaodong Zhu,
- Abstract要約: 本稿では,定量的一般均衡取引モデルにおける最適政策の効率的な解法として,ディープラーニングフレームワークであるDL-optを提案する。
我々は、関税と工業補助金の両方を含む国際二重競争が、世界関税戦争と比較して低い関税と高い福祉効果をもたらすことを示した。
- 参考スコア(独自算出の注目度): 3.8223996583900552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a deep learning framework, DL-opt, designed to efficiently solve for optimal policies in quantifiable general equilibrium trade models. DL-opt integrates (i) a nested fixed point (NFXP) formulation of the optimization problem, (ii) automatic implicit differentiation to enhance gradient descent for solving unilateral optimal policies, and (iii) a best-response dynamics approach for finding Nash equilibria. Utilizing DL-opt, we solve for non-cooperative tariffs and industrial subsidies across 7 economies and 44 sectors, incorporating sectoral external economies of scale. Our quantitative analysis reveals significant sectoral heterogeneity in Nash policies: Nash industrial subsidies increase with scale elasticities, whereas Nash tariffs decrease with trade elasticities. Moreover, we show that global dual competition, involving both tariffs and industrial subsidies, results in lower tariffs and higher welfare outcomes compared to a global tariff war. These findings highlight the importance of considering sectoral heterogeneity and policy combinations in understanding global economic competition.
- Abstract(参考訳): 本稿では,定量的一般均衡取引モデルにおける最適政策の効率的な解法として,ディープラーニングフレームワークであるDL-optを提案する。
DL-opt の統合
(i)最適化問題のネスト固定点(NFXP)の定式化。
二 片側最適政策の解法における勾配降下の促進のための自動暗黙差分法
(iii) Nash equilibria を見つけるための最適応答力学アプローチ。
DL-optを利用することで、7つの経済と44のセクターにわたる非協力的な関税と産業補助を解決し、スケールの分野外経済を取り入れます。
ナッシュ工業補助金は大規模弾力性で増加し、ナッシュ関税は貿易弾力性で減少する。
さらに、関税と工業補助金の双方を含む国際二重競争は、国際関税戦争と比較して低い関税と高い福祉効果をもたらすことを示した。
これらの知見は,グローバル・エコノミクス・コンペティションの理解において,セクター的不均一性と政策の組み合わせを考慮することの重要性を浮き彫りにしている。
関連論文リスト
- Balancing Immediate Revenue and Future Off-Policy Evaluation in Coupon Allocation [3.4562366784858685]
本稿では,データ収集のためのモデルベース収益政策とランダム化探索政策を組み合わせた新しいアプローチを提案する。
当社の枠組みは、短期収益と今後の政策改善のバランスを最適化するために、これらの2つの政策の混合比率を柔軟に調整することができる。
合成データを用いた混合政策の有効性を実証的に検証した。
論文 参考訳(メタデータ) (2024-07-06T02:04:17Z) - Fairness Incentives in Response to Unfair Dynamic Pricing [7.991187769447732]
我々は基本的な模擬経済を設計し、公正な価格設定の行動を採用するよう企業にインセンティブを与えるために法人税のスケジュールを作成する。
可能な政策シナリオを網羅するため、我々は、ソーシャルプランナーの学習問題を、マルチアームバンディット、コンテキストバンディット、およびフル強化学習(RL)問題として定式化する。
社会的福祉はフェアネス非依存ベースラインのそれよりも改善し,マルチアームおよびコンテキストバンディット設定のための分析学的に最適なフェアネス対応ベースラインにアプローチすることを発見した。
論文 参考訳(メタデータ) (2024-04-22T23:12:58Z) - Finding Regularized Competitive Equilibria of Heterogeneous Agent
Macroeconomic Models with Reinforcement Learning [151.03738099494765]
労働市場に参入する世帯や企業を無限に数える異種エージェントマクロ経済モデルについて検討する。
本稿では,モデルの正規化競争均衡を求めるデータ駆動強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-24T17:16:27Z) - Faster Last-iterate Convergence of Policy Optimization in Zero-Sum
Markov Games [63.60117916422867]
本稿では,対戦型マルチエージェントRLの最も基本的な設定,すなわち2プレーヤゼロサムマルコフゲームに焦点を当てる。
両エージェントから対称更新を施した単一ループポリシー最適化手法を提案し,この手法はエントロピー規則化楽観的乗算重み更新法(OMWU)によって更新される。
我々の収束結果は、最もよく知られた複雑性を改善し、競合するマルコフゲームにおけるポリシー最適化をよりよく理解する。
論文 参考訳(メタデータ) (2022-10-03T16:05:43Z) - Regulatory Instruments for Fair Personalized Pricing [34.986747852934634]
規制制約下での利益最大化独占の最適価格戦略と、消費者余剰・生産余剰・社会福祉への影響について検討する。
我々の発見と洞察は、デジタル時代における独占化ビジネスの規制政策設計に光を当てた。
論文 参考訳(メタデータ) (2022-02-09T03:07:08Z) - Monotonic Improvement Guarantees under Non-stationarity for
Decentralized PPO [66.5384483339413]
我々は,MARL(Multi-Agent Reinforcement Learning)における分散政策の最適化のための新しい単調改善保証を提案する。
本研究では,訓練中のエージェント数に基づいて,独立した比率を限定することにより,信頼領域の制約を原則的に効果的に実施可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T20:39:48Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - The AI Economist: Optimal Economic Policy Design via Two-level Deep
Reinforcement Learning [126.37520136341094]
機械学習に基づく経済シミュレーションは強力な政策・メカニズム設計の枠組みであることを示す。
AIエコノミスト(AI Economist)は、エージェントと共同適応するソーシャルプランナーの両方を訓練する2段階のディープRLフレームワークである。
単純な一段階の経済では、AIエコノミストは経済理論の最適税制を回復する。
論文 参考訳(メタデータ) (2021-08-05T17:42:35Z) - The AI Economist: Improving Equality and Productivity with AI-Driven Tax
Policies [119.07163415116686]
我々は、経済的平等と生産性を効果的にトレードオフできる税制政策を発見する社会プランナーを訓練する。
競争圧力と市場ダイナミクスを特徴とする経済シミュレーション環境を提案する。
AI主導の税政策は、基本方針よりも平等と生産性のトレードオフを16%改善することを示します。
論文 参考訳(メタデータ) (2020-04-28T06:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。