論文の概要: Position: Epistemic Artificial Intelligence is Essential for Machine Learning Models to Know When They Do Not Know
- arxiv url: http://arxiv.org/abs/2505.04950v1
- Date: Thu, 08 May 2025 05:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.749187
- Title: Position: Epistemic Artificial Intelligence is Essential for Machine Learning Models to Know When They Do Not Know
- Title(参考訳): 人工知能は、機械学習モデルが知らないときを知るのに欠かせない
- Authors: Shireen Kudukkil Manchingal, Fabio Cuzzolin,
- Abstract要約: 私たちは、AIモデル、特に自律システムでは、不慣れなデータや敵対的なデータに直面すると、堅牢な予測ができないと論じています。
従来の機械学習アプローチは、データフィッティングとドメイン適応に関する過剰な意見のため、これらの問題を解決するのに苦労している。
- 参考スコア(独自算出の注目度): 4.842274080403092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the impressive achievements of AI, including advancements in generative models and large language models, there remains a significant gap in the ability of AI to handle uncertainty and generalize beyond the training data. We argue that AI models, especially in autonomous systems, fail to make robust predictions when faced with unfamiliar or adversarial data, as evidenced by incidents with autonomous vehicles. Traditional machine learning approaches struggle to address these issues due to an overemphasis on data fitting and domain adaptation. This position paper posits a paradigm shift towards epistemic artificial intelligence, emphasizing the need for models to learn not only from what they know but also from their ignorance. This approach, which focuses on recognizing and managing uncertainty, offers a potential solution to improve the resilience and robustness of AI systems, ensuring that they can better handle unpredictable real-world environments.
- Abstract(参考訳): 生成モデルや大規模言語モデルの進歩など、AIの驚くべき成果にもかかわらず、不確実性に対処し、トレーニングデータを超えて一般化する能力には、依然として大きなギャップがある。
私たちは、AIモデル、特に自律システムでは、自動運転車の事故によって証明されたような、馴染みの無いデータや敵対的なデータに直面すると、堅牢な予測ができないと論じています。
従来の機械学習アプローチは、データフィッティングとドメイン適応に関する過剰な意見のため、これらの問題を解決するのに苦労している。
このポジションペーパーは、認識的人工知能へのパラダイムシフトを示し、モデルが知っていることだけでなく、その無知からも学ぶ必要性を強調している。
このアプローチは、不確実性を認識し、管理することに焦点を当てており、AIシステムのレジリエンスと堅牢性を改善する潜在的なソリューションを提供し、予測不可能な現実世界環境をよりよく扱えるようにします。
関連論文リスト
- Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - A Survey on Brain-Inspired Deep Learning via Predictive Coding [85.93245078403875]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - From Machine Learning to Robotics: Challenges and Opportunities for
Embodied Intelligence [113.06484656032978]
記事は、インテリジェンスが機械学習技術の進歩の鍵を握っていると主張している。
私たちは、インテリジェンスを具体化するための課題と機会を強調します。
本稿では,ロボット学習の最先端性を著しく向上させる研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-10-28T16:04:01Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。