論文の概要: On the Impossible Safety of Large AI Models
- arxiv url: http://arxiv.org/abs/2209.15259v2
- Date: Tue, 9 May 2023 10:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 16:25:15.030025
- Title: On the Impossible Safety of Large AI Models
- Title(参考訳): 大規模aiモデルの不可能安全性について
- Authors: El-Mahdi El-Mhamdi, Sadegh Farhadkhani, Rachid Guerraoui, Nirupam
Gupta, L\^e-Nguy\^en Hoang, Rafael Pinot, S\'ebastien Rouault, John Stephan
- Abstract要約: 大規模AIモデル(LAIM)は、大きな言語モデルが最も顕著な最近の例であり、印象的なパフォーマンスを示している。
彼らは経験的に深刻なセキュリティ上の問題に悩まされている。
本稿では、任意に正確かつセキュアな機械学習モデルを構築することの基本的不可能性についての知識を体系化する。
- 参考スコア(独自算出の注目度): 9.315413817156706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large AI Models (LAIMs), of which large language models are the most
prominent recent example, showcase some impressive performance. However they
have been empirically found to pose serious security issues. This paper
systematizes our knowledge about the fundamental impossibility of building
arbitrarily accurate and secure machine learning models. More precisely, we
identify key challenging features of many of today's machine learning settings.
Namely, high accuracy seems to require memorizing large training datasets,
which are often user-generated and highly heterogeneous, with both sensitive
information and fake users. We then survey statistical lower bounds that, we
argue, constitute a compelling case against the possibility of designing
high-accuracy LAIMs with strong security guarantees.
- Abstract(参考訳): 大規模AIモデル(LAIM)は、大きな言語モデルが最も顕著な最近の例であり、印象的なパフォーマンスを示している。
しかし、それらは経験的に深刻なセキュリティ問題を引き起こしている。
本稿では、任意に正確かつセキュアな機械学習モデルを構築することの基本的不可能性についての知識を体系化する。
より正確には、今日の多くの機械学習設定の重要なチャレンジ機能を特定する。
すなわち、高い精度は、センシティブな情報と偽のユーザの両方を含む、しばしばユーザー生成と高度に異質な大規模なトレーニングデータセットを記憶する必要があるように見える。
次に,我々は,セキュリティ保証の強い高精度なライムを設計する可能性に対する説得力のあるケースであるとする。
関連論文リスト
- Evaluating Predictive Models in Cybersecurity: A Comparative Analysis of Machine and Deep Learning Techniques for Threat Detection [0.0]
本稿では、さまざまな機械学習モデルとディープラーニングモデルを比較して、サイバーセキュリティリスクの検出と対策に最適なモデルを選択する。
この2つのデータセットは、Naive Bayes、SVM、Random Forest、ディープラーニングアーキテクチャ(VGG16)などのモデルを評価するために、精度、精度、リコール、F1スコアのコンテキストで使用される。
論文 参考訳(メタデータ) (2024-07-08T15:05:59Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Building Safe and Reliable AI systems for Safety Critical Tasks with
Vision-Language Processing [1.2183405753834557]
現在のAIアルゴリズムでは、障害検出の一般的な原因を特定できない。
予測の質を定量化するためには、追加のテクニックが必要である。
この論文は、分類、画像キャプション、視覚質問応答といったタスクのための視覚言語データ処理に焦点を当てる。
論文 参考訳(メタデータ) (2023-08-06T18:05:59Z) - Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Timeseries-aware Uncertainty Wrappers for Uncertainty Quantification of
Information-Fusion-Enhanced AI Models based on Machine Learning [0.0]
時系列データに対する信頼性の高い不確実性推定のための時系列認識型不確実性ラッパーを提案する。
本研究では,情報融合によるモデル精度の向上と,不確実性推定の品質向上が可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:24:54Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Maximum Likelihood Distillation for Robust Modulation Classification [50.51144496609274]
我々は、より堅牢なAMCシステムを構築するために、知識蒸留のアイデアと敵の訓練に基づいて構築する。
オフライン環境でのAMC問題を解消し,より優れたトレーニングラベルを生成するためのMaximum Likelihood関数を提案する。
論文 参考訳(メタデータ) (2022-11-01T21:06:11Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Plex: Towards Reliability using Pretrained Large Model Extensions [69.13326436826227]
我々は,視覚と言語モダリティのための事前訓練された大規模モデル拡張であるViT-PlexとT5-Plexを開発した。
Plexは信頼性タスク間の最先端性を大幅に改善し、従来のプロトコルを単純化する。
最大1Bパラメータまでのモデルサイズに対するスケーリング効果と,最大4B例までのデータセットサイズを事前トレーニングした。
論文 参考訳(メタデータ) (2022-07-15T11:39:37Z) - Knowledge Augmented Machine Learning with Applications in Autonomous
Driving: A Survey [37.84106999449108]
この研究は、データ駆動モデルと既存の知識を組み合わせた既存の技術と手法の概要を提供する。
同定されたアプローチは、知識の統合、抽出、整合性に応じて構成される。
特に、自律運転分野における提案手法の適用について述べる。
論文 参考訳(メタデータ) (2022-05-10T07:25:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。