論文の概要: AI Model Utilization Measurements For Finding Class Encoding Patterns
- arxiv url: http://arxiv.org/abs/2212.06576v1
- Date: Mon, 12 Dec 2022 02:18:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:25:59.967455
- Title: AI Model Utilization Measurements For Finding Class Encoding Patterns
- Title(参考訳): クラスエンコーディングパターンを見つけるためのAIモデル利用計測
- Authors: Peter Bajcsy and Antonio Cardone and Chenyi Ling and Philippe Dessauw
and Michael Majurski and Tim Blattner and Derek Juba and Walid Keyrouz
- Abstract要約: この研究は、訓練された人工知能(AI)モデルの活用度測定を設計する際の問題に対処する。
この問題は、セキュリティおよび安全クリティカルなアプリケーションにおけるAIモデルの説明可能性の欠如によって動機付けられている。
- 参考スコア(独自算出の注目度): 2.702380921892937
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This work addresses the problems of (a) designing utilization measurements of
trained artificial intelligence (AI) models and (b) explaining how training
data are encoded in AI models based on those measurements. The problems are
motivated by the lack of explainability of AI models in security and safety
critical applications, such as the use of AI models for classification of
traffic signs in self-driving cars. We approach the problems by introducing
theoretical underpinnings of AI model utilization measurement and understanding
patterns in utilization-based class encodings of traffic signs at the level of
computation graphs (AI models), subgraphs, and graph nodes. Conceptually,
utilization is defined at each graph node (computation unit) of an AI model
based on the number and distribution of unique outputs in the space of all
possible outputs (tensor-states). In this work, utilization measurements are
extracted from AI models, which include poisoned and clean AI models. In
contrast to clean AI models, the poisoned AI models were trained with traffic
sign images containing systematic, physically realizable, traffic sign
modifications (i.e., triggers) to change a correct class label to another label
in a presence of such a trigger. We analyze class encodings of such clean and
poisoned AI models, and conclude with implications for trojan injection and
detection.
- Abstract(参考訳): この仕事は問題に対処する
(a)訓練された人工知能(AI)モデル及びモデルの利用率を設計する
b) これらの測定に基づいて,AIモデルにトレーニングデータをエンコードする方法を説明する。
この問題は、自動運転車の交通標識の分類にAIモデルを使用するなど、セキュリティおよび安全クリティカルなアプリケーションにおけるAIモデルの説明可能性の欠如によって動機付けられている。
計算グラフ(AIモデル)、サブグラフ、グラフノードのレベルにおける、交通標識の活用に基づくクラスエンコーディングにおけるAIモデル利用測定と理解パターンの理論的基盤を導入することで、この問題に対処する。
概念的には、すべての可能な出力(テンソル状態)の空間におけるユニークな出力の数と分布に基づいて、AIモデルのグラフノード(計算単位)で利用が定義される。
本研究では,有害およびクリーンなaiモデルを含むaiモデルから利用率の測定値を抽出する。
クリーンなAIモデルとは対照的に、有毒なAIモデルは、そのようなトリガーの存在下で正しいクラスラベルを他のラベルに変更するために、体系的、物理的に実現可能なトラフィックサイン修正(トリガー)を含むトラフィックサインイメージで訓練された。
このようなクリーンで有毒なAIモデルのクラスエンコーディングを分析し、トロイの木馬の注入と検出に影響を及ぼす。
関連論文リスト
- Analyzing the Quality Attributes of AI Vision Models in Open
Repositories Under Adversarial Attacks [8.861368759724431]
敵対的攻撃は、AIモデルの堅牢性と説明可能性に対する潜在的な脅威である。
XAIは、入力を近似したアルゴリズムをポストホック出力に適用し、貢献する特徴を識別する。
本稿では,下流評価タスクのための統合プロセスを提案する。
論文 参考訳(メタデータ) (2024-01-22T00:37:01Z) - A comprehensible analysis of the efficacy of Ensemble Models for Bug
Prediction [0.0]
我々は,単一のAIモデルとアンサンブルAIモデルという,2つのAIベースのアプローチの比較と分析を行い,Javaクラスがバグのある確率を予測する。
実験結果から,AIモデルのアンサンブルは,個々のAIモデルの適用結果より優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-10-18T17:43:54Z) - Representing Timed Automata and Timing Anomalies of Cyber-Physical
Production Systems in Knowledge Graphs [51.98400002538092]
本稿では,学習されたタイムドオートマトンとシステムに関する公式知識グラフを組み合わせることで,CPPSのモデルベース異常検出を改善することを目的とする。
モデルと検出された異常の両方を知識グラフに記述し、モデルと検出された異常をより容易に解釈できるようにする。
論文 参考訳(メタデータ) (2023-08-25T15:25:57Z) - AUTOLYCUS: Exploiting Explainable AI (XAI) for Model Extraction Attacks
against White-Box Models [2.2559617939136505]
本稿では、一般的な説明可能なAIツールが提供する説明を活用するモデル抽出攻撃を提案する。
対象モデルに対するクエリは,最先端攻撃と比較して最大60倍少ない。
論文 参考訳(メタデータ) (2023-02-04T13:23:39Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Model-based actor-critic: GAN (model generator) + DRL (actor-critic) =>
AGI [0.0]
本稿ではアクター批判的(モデルフリー)アーキテクチャに(生成的/予測的)環境モデルを追加することを提案する。
提案するAIモデルは(モデルフリーの)DDPGに似ているため、モデルベースDDPGと呼ばれる。
モデルベースアクター批判におけるDRLとGANは,各タスクを(モデルフリーの)DDPGと同等の性能で解決するために,段階的な目標駆動知性を必要とすることを示した。
論文 参考訳(メタデータ) (2020-04-04T02:05:54Z) - Data-Driven Symbol Detection via Model-Based Machine Learning [117.58188185409904]
機械学習(ML)とモデルベースアルゴリズムを組み合わせた,検出設計のシンボル化を目的とした,データ駆動型フレームワークについてレビューする。
このハイブリッドアプローチでは、よく知られたチャネルモデルに基づくアルゴリズムをMLベースのアルゴリズムで拡張し、チャネルモデル依存性を除去する。
提案手法は, 正確なチャネル入出力統計関係を知らなくても, モデルベースアルゴリズムのほぼ最適性能が得られることを示す。
論文 参考訳(メタデータ) (2020-02-14T06:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。