論文の概要: ClaudesLens: Uncertainty Quantification in Computer Vision Models
- arxiv url: http://arxiv.org/abs/2406.13008v1
- Date: Tue, 18 Jun 2024 18:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 00:18:18.598419
- Title: ClaudesLens: Uncertainty Quantification in Computer Vision Models
- Title(参考訳): ClaudesLens:コンピュータビジョンモデルにおける不確かさの定量化
- Authors: Mohamad Al Shaar, Nils Ekström, Gustav Gille, Reza Rezvan, Ivan Wely,
- Abstract要約: シャノンエントロピーに基づく異なるコンピュータビジョンモデルの出力の不確かさを定量化し評価する方法を提案する。
我々は、シャノンエントロピーが、人工知能における不確実性を定量化するSOTA(State-of-the-art)手法において、最終的にはより大きな役割を果たすと考えている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a world where more decisions are made using artificial intelligence, it is of utmost importance to ensure these decisions are well-grounded. Neural networks are the modern building blocks for artificial intelligence. Modern neural network-based computer vision models are often used for object classification tasks. Correctly classifying objects with \textit{certainty} has become of great importance in recent times. However, quantifying the inherent \textit{uncertainty} of the output from neural networks is a challenging task. Here we show a possible method to quantify and evaluate the uncertainty of the output of different computer vision models based on Shannon entropy. By adding perturbation of different levels, on different parts, ranging from the input to the parameters of the network, one introduces entropy to the system. By quantifying and evaluating the perturbed models on the proposed PI and PSI metrics, we can conclude that our theoretical framework can grant insight into the uncertainty of predictions of computer vision models. We believe that this theoretical framework can be applied to different applications for neural networks. We believe that Shannon entropy may eventually have a bigger role in the SOTA (State-of-the-art) methods to quantify uncertainty in artificial intelligence. One day we might be able to apply Shannon entropy to our neural systems.
- Abstract(参考訳): 人工知能を使ってより多くの決定が下される世界では、これらの決定が十分に根底にあることを保証することが最重要である。
ニューラルネットワークは、人工知能のための現代的なビルディングブロックである。
現代のニューラルネットワークベースのコンピュータビジョンモデルは、しばしばオブジェクト分類タスクに使用される。
オブジェクトを‘textit{certainty} で正しく分類することは、近年において非常に重要になっている。
しかし、ニューラルネットワークからの出力の固有の \textit{uncertainty} を定量化することは難しい課題である。
本稿では,シャノンエントロピーに基づく異なるコンピュータビジョンモデルの出力の不確かさを定量化し,評価する方法を提案する。
入力からネットワークのパラメータまで、さまざまなレベルの摂動を追加することで、システムにエントロピーを導入する。
提案したPIおよびPSIメトリクスの摂動モデルの定量化と評価により、我々の理論的枠組みはコンピュータビジョンモデルの予測の不確実性に関する洞察を与えることができると結論付けることができる。
この理論の枠組みは、ニューラルネットワークの様々な応用に適用できると信じている。
我々は、シャノンエントロピーが、人工知能における不確実性を定量化するSOTA(State-of-the-art)手法において、最終的にはより大きな役割を果たすと考えている。
いつか、私たちの神経系にシャノンエントロピーを適用することができるかもしれません。
関連論文リスト
- From Neurons to Neutrons: A Case Study in Interpretability [5.242869847419834]
高次元ニューラルネットワークはトレーニングデータの低次元表現を学習することができると我々は主張する。
このことは、解釈可能性に対するそのようなアプローチが、問題を解決するために訓練されたモデルから問題に対する新しい理解を導き出すのに有用であることを示している。
論文 参考訳(メタデータ) (2024-05-27T17:59:35Z) - Bayes in the age of intelligent machines [11.613278345297399]
ベイズ的認知モデルと人工ニューラルネットワークは、異なるレベルの分析に関係しており、相補的なモデリングアプローチであると主張する。
我々はまた、ベイズ的アプローチが一意に価値があるかもしれないインテリジェントマシンにも、同じ視点が適用できると主張する。
論文 参考訳(メタデータ) (2023-11-16T21:39:54Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Explainable Artificial Intelligence for Bayesian Neural Networks:
Towards trustworthy predictions of ocean dynamics [0.0]
ニューラルネットワークの信頼性は、不確実性を表現したり、スキルを説明する能力が欠けているため、しばしば疑問視される。
気候変動の応用など、高い利害関係の意思決定においてニューラルネットワークの利用が増加していることを考えると、これは問題となる可能性がある。
我々は、パラメータが決定論的ではなく分布であるベイズニューラルネットワーク(BNN)の実装に成功し、説明可能なAI(XAI)技術の新しい実装を適用することにより、両方の問題に対処する。
論文 参考訳(メタデータ) (2022-04-30T08:35:57Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - The mathematics of adversarial attacks in AI -- Why deep learning is
unstable despite the existence of stable neural networks [69.33657875725747]
固定アーキテクチャを用いた分類問題に対するニューラルネットワークのトレーニングに基づくトレーニング手順が,不正確あるいは不安定なニューラルネットワーク(正確であれば)を生み出すことを証明している。
鍵となるのは、安定かつ正確なニューラルネットワークは入力に依存する可変次元を持つ必要があり、特に、可変次元は安定性に必要な条件である。
我々の結果は、正確で安定したニューラルネットワークが存在するというパラドックスを示しているが、現代のアルゴリズムはそれらを計算していない。
論文 参考訳(メタデータ) (2021-09-13T16:19:25Z) - Quantum Superposition Inspired Spiking Neural Network [4.5727987473456055]
人工知能モデルの進歩にもかかわらず、ニューラルネットワークは人間のパフォーマンスを達成することはできない。
本稿では,脳内の量子機構や現象にインスパイアされた量子重畳スパイクニューラルネットワークを提案する。
QS-SNNは、計算の観点から脳にインスパイアされたスパイクニューラルネットワークモデルに量子理論を組み込んでおり、従来のANNモデルと比較してより堅牢なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2020-10-23T07:11:53Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。