論文の概要: Rule-based Out-Of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2303.01860v4
- Date: Mon, 21 Aug 2023 10:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 01:23:46.043453
- Title: Rule-based Out-Of-Distribution Detection
- Title(参考訳): 規則に基づく分布外検出
- Authors: Giacomo De Bernardi, Sara Narteni, Enrico Cambiaso, Maurizio Mongelli
- Abstract要約: アウト・オブ・ディストリビューション検出は、機械学習の展開において最も重要な問題の1つである。
論文の手法はXAIに基づいており、分布内と外との類似性を識別するために異なる指標を考慮に入れている。
複雑なシナリオに対する検証は、検出精度とトレーニング・運用条件の近接性の評価の両方を裏付ける。
- 参考スコア(独自算出の注目度): 2.4929848036487976
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Out-of-distribution detection is one of the most critical issue in the
deployment of machine learning. The data analyst must assure that data in
operation should be compliant with the training phase as well as understand if
the environment has changed in a way that autonomous decisions would not be
safe anymore. The method of the paper is based on eXplainable Artificial
Intelligence (XAI); it takes into account different metrics to identify any
resemblance between in-distribution and out of, as seen by the XAI model. The
approach is non-parametric and distributional assumption free. The validation
over complex scenarios (predictive maintenance, vehicle platooning, covert
channels in cybersecurity) corroborates both precision in detection and
evaluation of training-operation conditions proximity. Results are available
via open source and open data at the following link:
https://github.com/giacomo97cnr/Rule-based-ODD.
- Abstract(参考訳): 分散検出は、マシンラーニングのデプロイメントにおいて最も重要な問題のひとつだ。
データアナリストは、運用中のデータがトレーニングフェーズに準拠していることと、自律的な決定がもはや安全でない方法で環境が変わったかどうかを理解することを保証する必要がある。
論文の方法はeXplainable Artificial Intelligence (XAI)に基づいており、XAIモデルに見られるように、分布内と外部との類似性を識別するために異なるメトリクスを考慮に入れている。
このアプローチは非パラメトリックかつ分布的仮定自由である。
複雑なシナリオ(予測的メンテナンス、車両小隊、サイバーセキュリティにおける隠密チャネル)の検証は、検出の精度とトレーニング運用条件の近接性の両方を裏付ける。
結果は、オープンソースとオープンデータを通じて、以下のリンクで入手できる。
関連論文リスト
- Using Kernel SHAP XAI Method to optimize the Network Anomaly Detection
Model [0.0]
異常検出とその説明は、侵入検知、不正検出、未知の攻撃検出、ネットワークトラフィック、ログなど、多くの研究領域において重要である。
ひとつのインスタンスが異常である理由や説明を特定するのは難しいですか?
XAIは、Deep Learning (DL)のような複雑なモデルのアウトプットと動作を解釈し、説明するためのツールと技術を提供する。
論文 参考訳(メタデータ) (2023-07-31T18:47:45Z) - Explaining RADAR features for detecting spoofing attacks in Connected
Autonomous Vehicles [2.8153045998456188]
コネクテッド・自動運転車(CAV)は、サイバー攻撃から守るためのAIシステムが組み込まれていると期待されている。
機械学習(ML)モデルは、このようなAIシステムの基盤となる。
本稿では,センサ入力におけるテキストの不確かさとテキスト不確かさを説明するモデルを提案する。
論文 参考訳(メタデータ) (2022-03-01T00:11:46Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Out-of-Scope Intent Detection with Self-Supervision and Discriminative
Training [20.242645823965145]
タスク指向対話システムにおいて、スコープ外インテント検出は実用上重要である。
本稿では,テストシナリオをシミュレートして,スコープ外インテント分類器をエンドツーエンドに学習する手法を提案する。
提案手法を4つのベンチマーク・ダイアログ・データセット上で広範囲に評価し,最先端のアプローチに対する大幅な改善を観察する。
論文 参考訳(メタデータ) (2021-06-16T08:17:18Z) - Decentralized Federated Learning Preserves Model and Data Privacy [77.454688257702]
我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
論文 参考訳(メタデータ) (2021-02-01T14:38:54Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Guided Uncertainty-Aware Policy Optimization: Combining Learning and
Model-Based Strategies for Sample-Efficient Policy Learning [75.56839075060819]
従来のロボットのアプローチは、環境の正確なモデル、タスクの実行方法の詳細な説明、現在の状態を追跡するための堅牢な認識システムに依存している。
強化学習アプローチは、タスクを記述するための報酬信号だけで、生の感覚入力から直接操作することができるが、非常にサンプル非効率で脆弱である。
本研究では,ロボットの知覚・運動パイプラインにおける不正確さを克服できる一般的な手法を得るために,モデルに基づく手法の強みと学習に基づく手法の柔軟性を組み合わせる。
論文 参考訳(メタデータ) (2020-05-21T19:47:05Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。