論文の概要: OAK4XAI: Model towards Out-Of-Box eXplainable Artificial Intelligence
for Digital Agriculture
- arxiv url: http://arxiv.org/abs/2209.15104v1
- Date: Thu, 29 Sep 2022 21:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 15:33:59.207148
- Title: OAK4XAI: Model towards Out-Of-Box eXplainable Artificial Intelligence
for Digital Agriculture
- Title(参考訳): OAK4XAI:デジタル農業におけるアウトオフボックスeXplainable AIのモデル
- Authors: Quoc Hung Ngo, Tahar Kechadi, Nhien-An Le-Khac
- Abstract要約: 我々は農業における知識を説明するために農業コンピューティングオントロジー(AgriComO)を構築した。
XAIは、意思決定と訓練されたAIモデルに対して、人間に理解可能な説明を提供しようとしている。
- 参考スコア(独自算出の注目度): 4.286327408435937
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent machine learning approaches have been effective in Artificial
Intelligence (AI) applications. They produce robust results with a high level
of accuracy. However, most of these techniques do not provide
human-understandable explanations for supporting their results and decisions.
They usually act as black boxes, and it is not easy to understand how decisions
have been made. Explainable Artificial Intelligence (XAI), which has received
much interest recently, tries to provide human-understandable explanations for
decision-making and trained AI models. For instance, in digital agriculture,
related domains often present peculiar or input features with no link to
background knowledge. The application of the data mining process on
agricultural data leads to results (knowledge), which are difficult to explain.
In this paper, we propose a knowledge map model and an ontology design as an
XAI framework (OAK4XAI) to deal with this issue. The framework does not only
consider the data analysis part of the process, but it takes into account the
semantics aspect of the domain knowledge via an ontology and a knowledge map
model, provided as modules of the framework. Many ongoing XAI studies aim to
provide accurate and verbalizable accounts for how given feature values
contribute to model decisions. The proposed approach, however, focuses on
providing consistent information and definitions of concepts, algorithms, and
values involved in the data mining models. We built an Agriculture Computing
Ontology (AgriComO) to explain the knowledge mined in agriculture. AgriComO has
a well-designed structure and includes a wide range of concepts and
transformations suitable for agriculture and computing domains.
- Abstract(参考訳): 最近の機械学習アプローチは人工知能(AI)の応用に有効である。
高い精度で堅牢な結果が得られる。
しかしながら、これらの手法のほとんどは、結果と決定を支持するために人間に理解可能な説明を提供していない。
彼らは通常ブラックボックスとして振る舞うが、どのように意思決定が行われたかを理解するのは容易ではない。
説明可能な人工知能(XAI)は、意思決定と訓練されたAIモデルに対して、人間に理解可能な説明を提供しようとしている。
例えば、デジタル農業では、関連するドメインは、背景知識に関係のない特異または入力の特徴をしばしば提示する。
農業データへのデータマイニングプロセスの適用は、結果(知識)につながり、説明が難しい。
本稿では,この問題に対処するための知識マップモデルとXAIフレームワーク(OAK4XAI)としてのオントロジー設計を提案する。
フレームワークは、プロセスのデータ分析の部分だけでなく、フレームワークのモジュールとして提供されるオントロジーと知識マップモデルを通じて、ドメイン知識の意味論的な側面も考慮します。
進行中のxai研究の多くは、与えられた特徴値がモデル決定にどのように寄与するかを、正確かつ口頭で説明することを目的としている。
しかし、提案するアプローチは、データマイニングモデルに関わる概念、アルゴリズム、および値の一貫性のある情報と定義を提供することに焦点を当てている。
我々は農業における知識を説明するために農業コンピューティングオントロジー(AgriComO)を構築した。
AgriComOはよく設計された構造であり、農業やコンピューティング分野に適した幅広い概念と変換を含んでいる。
関連論文リスト
- Neural-Symbolic Reasoning over Knowledge Graphs: A Survey from a Query Perspective [55.79507207292647]
知識グラフ推論は、データマイニング、人工知能、Web、社会科学など、さまざまな分野において重要である。
ニューラルAIの台頭は、深層学習の頑健さと象徴的推論の精度を融合させることで、大きな進歩を見せている。
大規模言語モデル(LLM)の出現により、知識グラフ推論の新しいフロンティアが開かれた。
論文 参考訳(メタデータ) (2024-11-30T18:54:08Z) - Explainable Artificial Intelligence: A Survey of Needs, Techniques, Applications, and Future Direction [5.417632175667161]
説明可能な人工知能(XAI)は、これらのモデルがどのように意思決定や予測を行うかを説明することによって、課題に対処する。
既存の研究では、XAIの基本概念、その一般的原理、およびXAI技術の範囲について検討されている。
本稿では、共通用語と定義、XAIの必要性、XAIの受益者の必要性、XAI手法の分類、および異なる応用分野におけるXAI手法の適用に関する総合的な文献レビューを提供する。
論文 参考訳(メタデータ) (2024-08-30T21:42:17Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Explainable AI for Bioinformatics: Methods, Tools, and Applications [1.6855835471222005]
説明可能な人工知能(XAI)は、ブラックボックスモデルの不透明さを軽減することを目的とした新興分野である。
本稿では,バイオインフォマティクスに着目した説明可能性の重要性について論じる。
論文 参考訳(メタデータ) (2022-12-25T21:00:36Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Explainable Artificial Intelligence (XAI) for Internet of Things: A
Survey [1.7205106391379026]
人工知能(AI)モデルのブラックボックスの性質は、ユーザーがそのようなモデルによって生成された出力を理解し、時には信頼することを許さない。
結果だけでなく、結果への決定パスも重要なAIアプリケーションでは、このようなブラックボックスAIモデルは不十分である。
説明可能な人工知能(XAI)は、この問題に対処し、ユーザによって解釈される一連のAIモデルを定義する。
論文 参考訳(メタデータ) (2022-06-07T08:22:30Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。