論文の概要: The GPT Dilemma: Foundation Models and the Shadow of Dual-Use
- arxiv url: http://arxiv.org/abs/2407.20442v1
- Date: Mon, 29 Jul 2024 22:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 18:48:44.340853
- Title: The GPT Dilemma: Foundation Models and the Shadow of Dual-Use
- Title(参考訳): GPTジレンマ:基礎モデルとデュアルユースの影
- Authors: Alan Hickey,
- Abstract要約: 本稿では、基礎モデルの二重利用課題と、国際安全保障に影響を及ぼすリスクについて検討する。
本稿では,基礎モデルの開発サイクルにおいて,モデル入力,機能,システム利用事例,システム展開の4つの重要な要因を分析した。
本稿では、中距離原子力軍(INF)条約をケーススタディとして、関連するリスクを軽減するためのいくつかの戦略を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines the dual-use challenges of foundation models and the consequent risks they pose for international security. As artificial intelligence (AI) models are increasingly tested and deployed across both civilian and military sectors, distinguishing between these uses becomes more complex, potentially leading to misunderstandings and unintended escalations among states. The broad capabilities of foundation models lower the cost of repurposing civilian models for military uses, making it difficult to discern another state's intentions behind developing and deploying these models. As military capabilities are increasingly augmented by AI, this discernment is crucial in evaluating the extent to which a state poses a military threat. Consequently, the ability to distinguish between military and civilian applications of these models is key to averting potential military escalations. The paper analyzes this issue through four critical factors in the development cycle of foundation models: model inputs, capabilities, system use cases, and system deployment. This framework helps elucidate the points at which ambiguity between civilian and military applications may arise, leading to potential misperceptions. Using the Intermediate-Range Nuclear Forces (INF) Treaty as a case study, this paper proposes several strategies to mitigate the associated risks. These include establishing red lines for military competition, enhancing information-sharing protocols, employing foundation models to promote international transparency, and imposing constraints on specific weapon platforms. By managing dual-use risks effectively, these strategies aim to minimize potential escalations and address the trade-offs accompanying increasingly general AI models.
- Abstract(参考訳): 本稿では、基礎モデルの二重利用課題と、それらが国際安全保障にもたらすリスクについて検討する。
人工知能(AI)モデルが民間部門と軍事部門の両方でテストされ、展開されるにつれて、これらのユースケースの区別はより複雑になり、国家間の誤解や意図しないエスカレーションにつながる可能性がある。
基礎モデルの幅広い能力は、軍事的使用のために民間のモデルを再購入するコストを下げ、これらのモデルの開発と配備の背後にある他の州の意図を識別することが困難になった。
軍事能力がAIによって強化されるにつれて、この認識は、国家が軍事的脅威に直面する範囲を評価する上で極めて重要である。
したがって、これらのモデルの軍事的および民間的応用を区別する能力は、潜在的な軍事的エスカレーションを回避するための鍵となる。
本稿では,基礎モデルの開発サイクルにおける4つの重要な要因として,モデル入力,機能,システム利用事例,システム展開について分析する。
この枠組みは、民間と軍事の応用のあいまいさが生じる可能性のある点を明らかにするのに役立ち、潜在的に誤解を招く可能性がある。
本稿では、中距離原子力軍(INF)条約をケーススタディとして、関連するリスクを軽減するためのいくつかの戦略を提案する。
軍事競争のための赤い線を確立すること、情報共有プロトコルを強化すること、国際的透明性を促進するための基礎モデルを採用すること、特定の武器プラットフォームに制約を課すことなどが含まれる。
デュアルユースリスクを効果的に管理することにより、これらの戦略は、潜在的なエスカレーションを最小限に抑え、ますます一般的なAIモデルに伴うトレードオフに対処することを目的としている。
関連論文リスト
- Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting [0.0]
我々は、個人識別可能な情報がISTAR能力に寄与するのを防ぐことができないことが、敵による軍事AI技術の使用と普及に繋がることを示した。
我々は、軍事システムを確保し、AI兵器の普及を制限するためには、軍用AIシステムと個人データを商業基盤モデルから絶縁する必要があると結論付けている。
論文 参考訳(メタデータ) (2024-10-18T19:04:30Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Open-Source Assessments of AI Capabilities: The Proliferation of AI Analysis Tools, Replicating Competitor Models, and the Zhousidun Dataset [0.4864598981593653]
人工知能の軍事能力への統合は、世界中の主要な軍事力の標準となっている。
本稿では、Zhousidunデータセットの詳細な検証を通して、軍用AIモデルを分析するためのオープンソースの方法論を実証する。
論文 参考訳(メタデータ) (2024-05-20T16:51:25Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Escalation Risks from Language Models in Military and Diplomatic
Decision-Making [0.0]
この研究は、シミュレーションされたウォーゲームにおいて、複数のAIエージェントの振る舞いを精査することを目的としている。
我々は,これらのエージェントによる行動のエスカレーションのリスクを評価するために,新たなウォーゲームシミュレーションとスコアリングフレームワークを設計する。
我々は、モデルが兵器追跡力学を発達させ、より大きな紛争、そして稀に核兵器の配備に至る傾向があることを観察する。
論文 参考訳(メタデータ) (2024-01-07T07:59:10Z) - A Call to Arms: AI Should be Critical for Social Media Analysis of
Conflict Zones [5.479613761646247]
本稿では、コンピュータビジョンを用いて、特定の武器システムとそれを用いた武装集団の署名を特定するための予備的、横断的な作業について述べる。
武器の配布方法を追跡するだけでなく、ウクライナの様々な種類の国家や非国家の軍事俳優がどの種類の武器を使用しているかを追跡する可能性がある。
このようなシステムは、人道支援や医療援助がもっとも必要となる場所を含む、リアルタイムでの紛争を理解するために最終的に使用できる。
論文 参考訳(メタデータ) (2023-11-01T19:49:32Z) - Confidence-Building Measures for Artificial Intelligence: Workshop
Proceedings [3.090253451409658]
財団のモデルは最終的に州の安全を損なうためのいくつかの経路を導入するかもしれない。
The Confidence-Building Measures for Artificial Intelligenceワークショップは、リスクを軽減するためのツールと戦略を検討するために、マルチステークホルダグループをまとめました。
CBMの柔軟性は、基礎モデルランドスケープの急速な変化をナビゲートするための重要な手段となる。
論文 参考訳(メタデータ) (2023-08-01T22:20:11Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。