論文の概要: Neurosymbolic Conformal Classification
- arxiv url: http://arxiv.org/abs/2409.13585v1
- Date: Fri, 20 Sep 2024 15:38:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 06:30:58.042980
- Title: Neurosymbolic Conformal Classification
- Title(参考訳): ニューロシンボリック・コンフォーマル分類
- Authors: Arthur Ledaguenel, Céline Hudelot, Mostepha Khouadjia,
- Abstract要約: 過去数十年間、機械学習(ML)は大幅に改善され、主にディープラーニング(DL)によって駆動された。
多くの領域におけるMLの成功にもかかわらず、適合性の保証やMLシステムの脆弱性を提供することの不可能さは、信頼できるAIシステムの設計を妨げている。
この脆弱性を緩和し、MLシステムの動作に関するいくつかの保証を提供するために、いくつかの研究パスが研究されている。
- 参考スコア(独自算出の注目度): 6.775534755081169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The last decades have seen a drastic improvement of Machine Learning (ML), mainly driven by Deep Learning (DL). However, despite the resounding successes of ML in many domains, the impossibility to provide guarantees of conformity and the fragility of ML systems (faced with distribution shifts, adversarial attacks, etc.) have prevented the design of trustworthy AI systems. Several research paths have been investigated to mitigate this fragility and provide some guarantees regarding the behavior of ML systems, among which are neurosymbolic AI and conformal prediction. Neurosymbolic artificial intelligence is a growing field of research aiming to combine neural network learning capabilities with the reasoning abilities of symbolic systems. One of the objective of this hybridization can be to provide theoritical guarantees that the output of the system will comply with some prior knowledge. Conformal prediction is a set of techniques that enable to take into account the uncertainty of ML systems by transforming the unique prediction into a set of predictions, called a confidence set. Interestingly, this comes with statistical guarantees regarding the presence of the true label inside the confidence set. Both approaches are distribution-free and model-agnostic. In this paper, we see how these two approaches can complement one another. We introduce several neurosymbolic conformal prediction techniques and explore their different characteristics (size of confidence sets, computational complexity, etc.).
- Abstract(参考訳): 過去数十年間、主にディープラーニング(DL)によって駆動される機械学習(ML)が大幅に改善されてきた。
しかし、多くの領域におけるMLの成功にもかかわらず、(分散シフトや敵攻撃などに直面した)MLシステムの整合性の保証や脆弱性を提供することの不可能さは、信頼できるAIシステムの設計を妨げている。
この脆弱性を軽減し、ニューロシンボリックAIと共形予測を含むMLシステムの動作に関するいくつかの保証を提供するために、いくつかの研究パスが研究されている。
ニューロシンボリック人工知能(Neurosymbolic AI)は、ニューラルネットワーク学習能力とシンボリックシステムの推論能力を組み合わせることを目的とした研究分野である。
このハイブリダイゼーションの目的の1つは、システムの出力が何らかの事前の知識に従うという理論的な保証を提供することである。
コンフォーマル予測(Conformal prediction)とは、一意の予測を信頼セットと呼ばれる一連の予測に変換することによって、MLシステムの不確実性を考慮した一連の手法である。
興味深いことに、これは信頼セット内の真のラベルの存在に関する統計的保証が伴う。
どちらのアプローチも分布自由であり、モデルに依存しない。
本稿では,この2つのアプローチが相互に補完する方法について述べる。
本稿では,いくつかのニューロシンボリックな共形予測手法を導入し,その特性(信頼性セットのサイズ,計算複雑性など)について検討する。
関連論文リスト
- Machine Learning Robustness: A Primer [12.426425119438846]
この議論はロバストネスの詳細な定義から始まり、MLモデルが様々な環境条件と予期せぬ環境条件で安定した性能を維持する能力であることを示している。
この章では、データバイアスやモデル複雑性、未特定のMLパイプラインの落とし穴など、堅牢性を阻害する要因について詳しく説明している。
議論は、デバイアスや拡張といったデータ中心のアプローチから始まる、堅牢性を促進するための改善戦略を探求する。
論文 参考訳(メタデータ) (2024-04-01T03:49:42Z) - Evaluation of Predictive Reliability to Foster Trust in Artificial
Intelligence. A case study in Multiple Sclerosis [0.34473740271026115]
機械学習の失敗のスポッティングは、ML予測を使用して臨床上の決定を下す場合、最重要事項である。
我々は,任意のMLモデルのデプロイメントフェーズで使用可能なシンプルなアプローチを提案し,予測を信頼するか否かを提案する。
本手法は,デプロイメント中のML障害の可能性を見極めることによって,臨床医に効果的な支援を提供することを約束する。
論文 参考訳(メタデータ) (2024-02-27T14:48:07Z) - Distributionally Robust Statistical Verification with Imprecise Neural
Networks [4.094049541486327]
AI安全性における特に困難な問題は、高次元自律システムの振る舞いを保証することだ。
本稿では,アクティブラーニング,不確実性定量化,ニューラルネットワーク検証を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-28T18:06:24Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Enhancing Human-Machine Teaming for Medical Prognosis Through Neural
Ordinary Differential Equations (NODEs) [0.0]
医学的診断における機械学習の可能性を完全に実現するための重要な障壁は、テクノロジーの受容である。
説明可能なAI(XAI)を作成するための最近の取り組みは、いくつかのMLモデルの解釈可能性を改善するために進歩している。
本稿では,人間の理解を高め,受容性を促進する新しいMLアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-02-08T10:52:23Z) - Uncertainty-Aware Multi-Modal Ensembling for Severity Prediction of
Alzheimer's Dementia [39.29536042476913]
本稿では,アルツハイマー病の重症度を予測するために,マルチモーダルアンサンブルのための不確実性を考慮したブースティング手法を提案する。
音響的・認知的・言語的特徴にまたがる不確実性の伝播は、データの異義性に頑健なアンサンブルシステムを生み出す。
論文 参考訳(メタデータ) (2020-10-03T23:08:00Z) - Neuro-symbolic Neurodegenerative Disease Modeling as Probabilistic
Programmed Deep Kernels [93.58854458951431]
本稿では、神経変性疾患のパーソナライズされた予測モデリングのための、確率的プログラムによる深層カーネル学習手法を提案する。
我々の分析は、ニューラルネットワークとシンボリック機械学習のアプローチのスペクトルを考慮する。
我々は、アルツハイマー病の予測問題について評価を行い、深層学習を超越した結果を得た。
論文 参考訳(メタデータ) (2020-09-16T15:16:03Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。