論文の概要: Defense Priorities in the Open-Source AI Debate: A Preliminary Assessment
- arxiv url: http://arxiv.org/abs/2408.10026v1
- Date: Mon, 19 Aug 2024 14:22:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:52:57.718292
- Title: Defense Priorities in the Open-Source AI Debate: A Preliminary Assessment
- Title(参考訳): オープンソースのAIディベートにおける防衛優先事項 - 予備的評価
- Authors: Masao Dahlgren,
- Abstract要約: オープンファンデーションモデルのリリースに関する提案された制限は、防衛産業に大きな影響を及ぼす可能性がある。
予備的な証拠は、オープンファンデーションモデルエコシステムがアメリカ合衆国国防総省に利益をもたらすことを示唆している。
フォローオン分析は、買収コストとサプライチェーンのセキュリティへの影響を定量化するべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A spirited debate is taking place over the regulation of open foundation models: artificial intelligence models whose underlying architectures and parameters are made public and can be inspected, modified, and run by end users. Proposed limits on releasing open foundation models may have significant defense industrial impacts. If model training is a form of defense production, these impacts deserve further scrutiny. Preliminary evidence suggests that an open foundation model ecosystem could benefit the U.S. Department of Defense's supplier diversity, sustainment, cybersecurity, and innovation priorities. Follow-on analyses should quantify impacts on acquisition cost and supply chain security.
- Abstract(参考訳): 基盤となるアーキテクチャとパラメータが公開され、エンドユーザによる検査、修正、実行が可能な人工知能モデル。
オープンファンデーションモデルのリリースに関する提案された制限は、防衛産業に大きな影響を及ぼす可能性がある。
モデルトレーニングが防衛生産の一形態であるなら、これらの影響はさらなる精査に値する。
予備的な証拠は、オープンファンデーションモデルエコシステムが国防総省のサプライヤーの多様性、持続性、サイバーセキュリティ、イノベーションの優先順位に恩恵をもたらすことを示唆している。
フォローオン分析は、買収コストとサプライチェーンのセキュリティへの影響を定量化するべきである。
関連論文リスト
- New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - Mind the Gap: Foundation Models and the Covert Proliferation of Military Intelligence, Surveillance, and Targeting [0.0]
我々は、個人識別可能な情報がISTAR能力に寄与するのを防ぐことができないことが、敵による軍事AI技術の使用と普及に繋がることを示した。
我々は、軍事システムを確保し、AI兵器の普及を制限するためには、軍用AIシステムと個人データを商業基盤モデルから絶縁する必要があると結論付けている。
論文 参考訳(メタデータ) (2024-10-18T19:04:30Z) - Towards Understanding and Enhancing Security of Proof-of-Training for DNN Model Ownership Verification [10.719324803570878]
具体的スキームにインスタンス化できる汎用的学習証明(PoT)の構築を提案する。
我々は,既存のPoTスキームを侵害した攻撃に対して,我々の計画が抵抗可能であることを示す。
論文 参考訳(メタデータ) (2024-10-06T08:30:31Z) - PRISM: A Design Framework for Open-Source Foundation Model Safety [0.0]
本稿では,オープンファンデーションモデル開発者がモデル安全性にどのようにアプローチすべきか,という課題に対処する。
オープンソースファウンデーションモデル安全のための設計フレームワークであるPRISMを導入し、プライベート、ロバスト、インディペンデント安全対策を強調した。
PRISMは、個人や社会全体のリスクを最小限に抑えつつ、これらの強力な技術のポテンシャルを最大化する、より安全なオープンソースエコシステムを作ることを目指している。
論文 参考訳(メタデータ) (2024-06-14T21:26:15Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - A Framework for Understanding Model Extraction Attack and Defense [48.421636548746704]
我々は,モデルユーティリティとユーザとのトレードオフと,敵の視点によるプライバシについて検討する。
我々は,このようなトレードオフを定量化し,その理論的特性を分析し,最適な敵攻撃・防衛戦略を理解するための最適化問題を開発する。
論文 参考訳(メタデータ) (2022-06-23T05:24:52Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。