論文の概要: BACON: A fully explainable AI model with graded logic for decision making problems
- arxiv url: http://arxiv.org/abs/2505.14510v2
- Date: Thu, 22 May 2025 15:50:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 14:49:22.521289
- Title: BACON: A fully explainable AI model with graded logic for decision making problems
- Title(参考訳): BACON: 意思決定問題のためのグレードロジックを備えた、完全に説明可能なAIモデル
- Authors: Haishi Bai, Jozo Dujmovic, Jianwu Wang,
- Abstract要約: 本稿では,意思決定問題に対する説明可能なAIモデルの自動トレーニングフレームワークであるBACONを紹介する。
BACONは、完全な構造的透明性と正確な論理ベースのシンボリック説明を提供しながら、高い予測精度を達成する。
これらの結果から、BACONは実践的で原則的なアプローチとして、信頼できるAIを提供する可能性を示している。
- 参考スコア(独自算出の注目度): 0.46052594866569146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models and autonomous agents are increasingly deployed in high-stakes, real-world domains such as healthcare, security, finance, and robotics, the need for transparent and trustworthy explanations has become critical. To ensure end-to-end transparency of AI decisions, we need models that are not only accurate but also fully explainable and human-tunable. We introduce BACON, a novel framework for automatically training explainable AI models for decision making problems using graded logic. BACON achieves high predictive accuracy while offering full structural transparency and precise, logic-based symbolic explanations, enabling effective human-AI collaboration and expert-guided refinement. We evaluate BACON with a diverse set of scenarios: classic Boolean approximation, Iris flower classification, house purchasing decisions and breast cancer diagnosis. In each case, BACON provides high-performance models while producing compact, human-verifiable decision logic. These results demonstrate BACON's potential as a practical and principled approach for delivering crisp, trustworthy explainable AI.
- Abstract(参考訳): 機械学習モデルと自律エージェントが、医療、セキュリティ、金融、ロボティクスといった、高度な現実世界のドメインにますますデプロイされているため、透明で信頼できる説明の必要性が重要になっている。
AI決定のエンドツーエンドの透明性を確保するためには、正確であるだけでなく、完全に説明可能で、人間によるチューニングが可能なモデルが必要です。
本稿では,段階論理を用いた意思決定問題に対する説明可能なAIモデルの自動学習フレームワークであるBACONを紹介する。
BACONは、完全な構造的透明性と正確な論理ベースの象徴的説明を提供しながら、高い予測精度を達成する。
BACONは,古典的ブール近似,アイリス花分類,住宅購入決定,乳がん診断など,様々なシナリオで評価した。
それぞれのケースにおいて、BACONは、コンパクトで人間の検証可能な決定論理を生産しながら、高性能なモデルを提供する。
これらの結果はBACONが、信頼性の高い信頼できる説明可能なAIを提供するための実践的で原則化されたアプローチとしての可能性を示している。
関連論文リスト
- A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - AI in a vat: Fundamental limits of efficient world modelling for agent sandboxing and interpretability [84.52205243353761]
最近の研究は、世界モデルを使用して、AIエージェントをデプロイ前にテストできる制御された仮想環境を生成することを提案する。
評価対象のAIエージェントに非依存な世界モデルを簡単にする方法を検討する。
論文 参考訳(メタデータ) (2025-04-06T20:35:44Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - XXAI: Towards eXplicitly eXplainable Artificial Intelligence [0.0]
サブシンボリックニューラルネットワークに基づく人工知能の信頼性と安全性には懸念がある。
象徴的なAIは、ホワイトボックスの性質を持ち、その決定の信頼性と安全性を保証することができる。
eXplicitly eXplainable AI (XXAI) - 決定論的論理セルオートマトンに基づく完全透明なホワイトボックスAIを提案する。
論文 参考訳(メタデータ) (2024-01-05T23:50:10Z) - Conceptual Modeling and Artificial Intelligence: Mutual Benefits from
Complementary Worlds [0.0]
これまでのところ、主に分離されたCMとAIの分野にアプローチする2つの交差点に取り組むことに興味があります。
このワークショップでは、(一)概念モデリング(CM)がAIにどのような貢献ができるのか、(一)その逆の方法で、多様体相互利益を実現することができるという仮定を取り入れている。
論文 参考訳(メタデータ) (2021-10-16T18:42:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。