論文の概要: On the Connection between Concept Drift and Uncertainty in Industrial
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2303.07940v1
- Date: Tue, 14 Mar 2023 14:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 14:45:30.133996
- Title: On the Connection between Concept Drift and Uncertainty in Industrial
Artificial Intelligence
- Title(参考訳): 産業人工知能におけるコンセプトドリフトと不確かさの関連について
- Authors: Jesus L. Lobo, Ibai La\~na, Eneko Osaba and Javier Del Ser
- Abstract要約: この原稿は、モデルが出力に対する自信とコンセプトドリフトの存在とをしっかりと確認し、公開することを目的としている。
モデルの知識を更新するには、変更の早期検出(ドリフト)が不可欠です。
- 参考スコア(独自算出の注目度): 7.585540240110219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-based digital twins are at the leading edge of the Industry 4.0
revolution, which are technologically empowered by the Internet of Things and
real-time data analysis. Information collected from industrial assets is
produced in a continuous fashion, yielding data streams that must be processed
under stringent timing constraints. Such data streams are usually subject to
non-stationary phenomena, causing that the data distribution of the streams may
change, and thus the knowledge captured by models used for data analysis may
become obsolete (leading to the so-called concept drift effect). The early
detection of the change (drift) is crucial for updating the model's knowledge,
which is challenging especially in scenarios where the ground truth associated
to the stream data is not readily available. Among many other techniques, the
estimation of the model's confidence has been timidly suggested in a few
studies as a criterion for detecting drifts in unsupervised settings. The goal
of this manuscript is to confirm and expose solidly the connection between the
model's confidence in its output and the presence of a concept drift,
showcasing it experimentally and advocating for a major consideration of
uncertainty estimation in comparative studies to be reported in the future.
- Abstract(参考訳): AIベースのデジタルツインは、モノのインターネットとリアルタイムデータ分析によって技術的に強化された産業4.0革命の最先端にある。
産業資産から収集された情報は連続的に生成され、厳しいタイミング制約の下で処理しなければならないデータストリームが生成される。
このようなデータストリームは通常、非定常的な現象の影響を受けるため、ストリームのデータ分布が変化し、データ解析に使用されるモデルによって得られる知識は時代遅れになる(いわゆるコンセプトドリフト効果)。
変更の早期検出(ドリフト)はモデルの知識を更新するために不可欠であり、特にストリームデータに関連する基礎的な真実が容易に利用できないシナリオでは困難である。
その他の多くの手法の中で、モデルの信頼度の推定は、教師なし環境での漂流を検出するための基準として、いくつかの研究でひどく提案されている。
本書の目標は、モデルが出力に対する自信とコンセプトドリフトの存在を確証し、確証することであり、それを実験的に示し、将来報告される比較研究における不確実性評価の大幅な検討を提唱することである。
関連論文リスト
- Are Concept Drift Detectors Reliable Alarming Systems? -- A Comparative
Study [6.7961908135481615]
コンセプトドリフト(concept drift)またはコンセプトドリフト(concept drift)は、機械学習モデルのパフォーマンスに影響を与える。
本研究では, ドリフト検出装置の信頼性を評価し, 時間内ドリフトの同定を行う。
本研究の目的は,ドリフト検出器がどの状況で使用されるべきかを,実践者が理解できるようにすることである。
論文 参考訳(メタデータ) (2022-11-23T16:31:15Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Detecting Concept Drift With Neural Network Model Uncertainty [0.0]
不確実ドリフト検出(UDD)は、真のラベルにアクセスすることなくドリフトを検出することができる。
入力データに基づくドリフト検出とは対照的に,現在の入力データが予測モデルの特性に与える影響を考察する。
UDDは2つの合成および10の実世界のデータセットにおいて、回帰処理と分類処理の両方において、他の最先端戦略よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-05T08:56:36Z) - Labelling Drifts in a Fault Detection System for Wind Turbine
Maintenance [0.0]
産業資産が運営する動的環境における非定常性は概念ドリフト(concept drift)として知られる。
本稿では, 風力タービンのメンテナンスケースについて述べる。
風力タービンの寿命におけるドリフト現象のラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-06-18T07:14:14Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - Adversarial Concept Drift Detection under Poisoning Attacks for Robust
Data Stream Mining [15.49323098362628]
本稿では,敵対的攻撃と毒殺攻撃の存在下でのロバストな概念ドリフト検出のための枠組みを提案する。
本稿では,2種類の逆流の概念と,頑健な訓練可能なドリフト検出器の分類について紹介する。
また,ロバストネスの相対損失 (Relative Loss of Robustness) についても紹介する。
論文 参考訳(メタデータ) (2020-09-20T18:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。