論文の概要: The Logic of Strategic Assets: From Oil to Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2001.03246v2
- Date: Mon, 31 May 2021 15:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 09:00:24.212119
- Title: The Logic of Strategic Assets: From Oil to Artificial Intelligence
- Title(参考訳): 戦略的資産の論理:石油から人工知能へ
- Authors: Jeffrey Ding and Allan Dafoe
- Abstract要約: 本稿では、社会的に最適な行動が市場や個々の国家安全保障機関によって単独で生み出されない重要な競合する外部性に基づく理論を提案する。
次にこれらの論理を用いて、1950年代のエイヴォン2エンジン、1980年代後半の日米技術競争、人工知能に関する現代の会話の3つの重要な事例を明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What resources and technologies are strategic? This question is often the
focus of policy and theoretical debates, where the label "strategic" designates
those assets that warrant the attention of the highest levels of the state. But
these conversations are plagued by analytical confusion, flawed heuristics, and
the rhetorical use of "strategic" to advance particular agendas. We aim to
improve these conversations through conceptual clarification, introducing a
theory based on important rivalrous externalities for which socially optimal
behavior will not be produced alone by markets or individual national security
entities. We distill and theorize the most important three forms of these
externalities, which involve cumulative-, infrastructure-, and
dependency-strategic logics. We then employ these logics to clarify three
important cases: the Avon 2 engine in the 1950s, the U.S.-Japan technology
rivalry in the late 1980s, and contemporary conversations about artificial
intelligence.
- Abstract(参考訳): どんな資源と技術が戦略的か?
この問題はしばしば政策と理論的な議論の焦点であり、そこでは「戦略的」というラベルが州の最高レベルの注意を喚起する資産を指定している。
しかし、これらの会話は分析的な混乱、欠陥のあるヒューリスティックス、そして特定の議題を進めるための「戦略」の修辞的利用に悩まされている。
我々は、市場や個々の国家安全保障機関によってのみ社会的に最適な行動が生み出されない重要な競合する外部性に基づく理論を導入することにより、これらの会話を改善することを目的としている。
累積論理,インフラストラクチャ論理,依存性ストラテジック論理を含む,これらの外部性の最も重要な3つの形式を蒸留し,理論化する。
次にこれらの論理を用いて、1950年代のエイヴォン2エンジン、1980年代後半の日米技術競争、人工知能に関する現代の会話の3つの重要な事例を明らかにする。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - K-Level Reasoning: Establishing Higher Order Beliefs in Large Language Models for Strategic Reasoning [76.3114831562989]
マルチエージェント環境で戦略を動的に適応させるためには、LLM(Large Language Model)エージェントが必要である。
我々は,「K-Level Reasoning with Large Language Models (K-R)」という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-02T16:07:05Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Optimizing National Security Strategies through LLM-Driven Artificial
Intelligence Integration [0.0]
軍事的観点から、米国におけるAIとMLの進歩について検討する。
我々は、国家安全保障に対するAIの戦略的重要性と、軍事指導者や政策立案者に対する戦略的命令のセットを強調します。
論文 参考訳(メタデータ) (2023-05-07T21:51:39Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Exploring the Constraints on Artificial General Intelligence: A
Game-Theoretic No-Go Theorem [0.0]
本稿では,人間エージェントと潜在的スーパーヒューマンマシンエージェントとの戦略的相互作用を捉えるゲーム理論フレームワークを提案する。
私の分析は、超人的AIの理論的発展を形作ることのできるコンテキストの理解に寄与します。
論文 参考訳(メタデータ) (2022-09-25T23:17:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The AI Economist: Optimal Economic Policy Design via Two-level Deep
Reinforcement Learning [126.37520136341094]
機械学習に基づく経済シミュレーションは強力な政策・メカニズム設計の枠組みであることを示す。
AIエコノミスト(AI Economist)は、エージェントと共同適応するソーシャルプランナーの両方を訓練する2段階のディープRLフレームワークである。
単純な一段階の経済では、AIエコノミストは経済理論の最適税制を回復する。
論文 参考訳(メタデータ) (2021-08-05T17:42:35Z) - Artificial Intelligence Narratives: An Objective Perspective on Current
Developments [0.0]
この研究は、人工知能(AI)の全体像をより深く理解することに関心のある研究者に出発点を提供します。
読者にとって欠かせないことは、AIは様々な方法、思考の流派、そしてそれぞれの歴史的運動を含む包括的用語として理解されなければならないことである。
論文 参考訳(メタデータ) (2021-03-18T17:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。