論文の概要: The Gradient of Generative AI Release: Methods and Considerations
- arxiv url: http://arxiv.org/abs/2302.04844v1
- Date: Sun, 5 Feb 2023 23:05:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 14:39:55.678674
- Title: The Gradient of Generative AI Release: Methods and Considerations
- Title(参考訳): 生成型aiリリースの勾配:手法と考察
- Authors: Irene Solaiman
- Abstract要約: 生成AIシステムへの6つのアクセスレベルを評価するためのフレームワークを提案する。
我々は、強力なシステムのための大企業のクローズネスに注目し、時間とともに生成システムリリースの傾向を示す。
また、生成システムの安全管理とガードレールを列挙し、将来のリリースを改善するために必要な投資を列挙する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As increasingly powerful generative AI systems are developed, the release
method greatly varies. We propose a framework to assess six levels of access to
generative AI systems: fully closed; gradual or staged access; hosted access;
cloud-based or API access; downloadable access; and fully open. Each level,
from fully closed to fully open, can be viewed as an option along a gradient.
We outline key considerations across this gradient: release methods come with
tradeoffs, especially around the tension between concentrating power and
mitigating risks. Diverse and multidisciplinary perspectives are needed to
examine and mitigate risk in generative AI systems from conception to
deployment. We show trends in generative system release over time, noting
closedness among large companies for powerful systems and openness among
organizations founded on principles of openness. We also enumerate safety
controls and guardrails for generative systems and necessary investments to
improve future releases.
- Abstract(参考訳): ますます強力な生成AIシステムの開発に伴い、リリース方法は大きく異なる。
生成AIシステムへの6つのアクセスレベルを評価するためのフレームワークを提案する。完全クローズド、段階的または段階的なアクセス、ホスト型アクセス、クラウドベースまたはAPIアクセス、ダウンロード可能なアクセス、完全オープンである。
完全閉から完全開までの各レベルは、勾配に沿った選択肢と見なすことができる。
リリースメソッドにはトレードオフがあり、特に集中力とリスク軽減の緊張関係に関するものです。
生成型AIシステムのリスクを概念から展開まで検討し軽減するためには、多分野・多分野の視点が必要である。
我々は、強力なシステムのための大企業とオープンネスの原則に基づく組織の間でのクローズネスについて、時間とともに生成システムリリースの傾向を示す。
また、生成システムの安全管理とガードレールを列挙し、将来のリリースを改善するために必要な投資を列挙する。
関連論文リスト
- Jailbreak Attacks and Defenses against Multimodal Generative Models: A Survey [50.031628043029244]
マルチモーダル生成モデルは、ビルトインの安全機構をバイパスし、潜在的に有害なコンテンツの生成を誘導できる、ジェイルブレイク攻撃の影響を受けやすい。
本調査は,マルチモーダル生成モデルにおけるジェイルブレイクと防御についてレビューする。
論文 参考訳(メタデータ) (2024-11-14T07:51:51Z) - Exploiting and Securing ML Solutions in Near-RT RIC: A Perspective of an xApp [9.199924426745948]
Open Radio Access Networks (O-RAN) は破壊的な技術として登場している。
O-RANは、5Gと6Gのデプロイメント以上のネットワークプロバイダにとって魅力的なものだ。
RAN Intelligent Controllers (RIC)上でxAppsやrAppsのような機械学習(ML)ソリューションなどのカスタムアプリケーションをデプロイする能力は、ネットワーク機能やリソースの最適化において大きな可能性を秘めている。
しかし、O-RANとRCCのオープン性、初期標準、分散アーキテクチャは、複数の攻撃ベクトルを通じて悪用可能な脆弱性を多数導入している。
論文 参考訳(メタデータ) (2024-06-18T06:12:57Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Detecting Unknown Attacks in IoT Environments: An Open Set Classifier
for Enhanced Network Intrusion Detection [5.787704156827843]
本稿では,IoT環境に適したネットワーク侵入検知システム(NIDS)の領域におけるオープンセット認識(OSR)問題の緩和を目的としたフレームワークを提案する。
ネットワークトラフィックから空間的・時間的パターンを抽出し,パケットレベルデータのイメージベース表現に重きを置いている。
実験の結果は、このフレームワークの有効性を顕著に強調し、これまで見つからなかった攻撃に対して、驚くべき88%の検知率を誇示している。
論文 参考訳(メタデータ) (2023-09-14T06:41:45Z) - Bayesian Embeddings for Few-Shot Open World Recognition [60.39866770427436]
埋め込みベースの数ショット学習アルゴリズムをオープンワールド認識設定に拡張する。
当社のフレームワークは,MiniImageNetとTieredImageNetによる数ショット学習データセットのオープンワールド拡張をベンチマークする。
論文 参考訳(メタデータ) (2021-07-29T00:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。