論文の概要: ForestMonkey: Toolkit for Reasoning with AI-based Defect Detection and
Classification Models
- arxiv url: http://arxiv.org/abs/2307.13815v1
- Date: Tue, 25 Jul 2023 20:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:27:20.289782
- Title: ForestMonkey: Toolkit for Reasoning with AI-based Defect Detection and
Classification Models
- Title(参考訳): forestmonkey:aiに基づく欠陥検出と分類モデルを用いた推論用ツールキット
- Authors: Jiajun Zhang, Georgina Cosma, Sarah Bugby, Jason Watkins
- Abstract要約: 本稿では,AIに基づく欠陥検出および/または分類モデルの出力をデータ説明可能性で推論するツールキットであるフォレスト・モンキー(FM)を紹介する。
FMツールキットは、予測から推論対象への特徴抽出、画像から特徴抽出から欠陥特性への特徴抽出、決定木に基づくAI-Reasonerなどのプロセスで構成されている。
- 参考スコア(独自算出の注目度): 26.162549043506584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) reasoning and explainable AI (XAI) tasks have
gained popularity recently, enabling users to explain the predictions or
decision processes of AI models. This paper introduces Forest Monkey (FM), a
toolkit designed to reason the outputs of any AI-based defect detection and/or
classification model with data explainability. Implemented as a Python package,
FM takes input in the form of dataset folder paths (including original images,
ground truth labels, and predicted labels) and provides a set of charts and a
text file to illustrate the reasoning results and suggest possible
improvements. The FM toolkit consists of processes such as feature extraction
from predictions to reasoning targets, feature extraction from images to defect
characteristics, and a decision tree-based AI-Reasoner. Additionally, this
paper investigates the time performance of the FM toolkit when applied to four
AI models with different datasets. Lastly, a tutorial is provided to guide
users in performing reasoning tasks using the FM toolkit.
- Abstract(参考訳): 人工知能(AI)推論と説明可能なAI(XAI)タスクが最近人気となり、ユーザーはAIモデルの予測や決定プロセスを説明することができる。
本稿では,aiに基づく欠陥検出および/または分類モデルの出力をデータ説明性で推論するツールキットであるforest monkey (fm)を提案する。
Pythonパッケージとして実装されたFMは、データセットフォルダパス(オリジナル画像、グラウンドの真理ラベル、予測ラベルを含む)の形式で入力を取得し、推論結果を説明するためのチャートとテキストファイルのセットを提供し、改善の可能性を提案する。
FMツールキットは、予測から推論対象への特徴抽出、画像から欠陥特徴への特徴抽出、決定木に基づくAI-Reasonerなどのプロセスで構成されている。
さらに,異なるデータセットを持つ4つのAIモデルに適用した場合のFMツールキットの時間特性について検討する。
最後に、FMツールキットを使用した推論タスクのユーザガイドのためのチュートリアルが提供される。
関連論文リスト
- Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Explainable AI for Comparative Analysis of Intrusion Detection Models [20.683181384051395]
本研究は,ネットワークトラフィックから侵入検出を行うために,各種機械学習モデルを二分分類および多クラス分類のタスクに解析する。
すべてのモデルをUNSW-NB15データセットで90%の精度でトレーニングしました。
また、Random Forestは正確さ、時間効率、堅牢性という点で最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2024-06-14T03:11:01Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Morphological Image Analysis and Feature Extraction for Reasoning with
AI-based Defect Detection and Classification Models [10.498224499451991]
本稿では,画像から欠陥(DefChars)の形態的特徴を抽出するAI-Reasonerを提案する。
AI-Reasonerは、視覚化(チャート)とテキストの説明をエクスポートし、マスクによる欠陥検出と分類モデルによるアウトプットに関する洞察を提供する。
また、データ前処理と全体的なモデルパフォーマンスを強化する効果的な緩和戦略も提供する。
論文 参考訳(メタデータ) (2023-07-21T15:22:32Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Discover, Explanation, Improvement: An Automatic Slice Detection
Framework for Natural Language Processing [72.14557106085284]
スライス検出モデル(SDM)は、データポイントの低パフォーマンスなグループを自動的に識別する。
本稿では,NLPタスクの分類のための "Discover, Explain, improve (DEIM)" というベンチマークを提案する。
評価の結果,Edisaは情報的セマンティックな特徴を持つ誤り発生データポイントを正確に選択できることがわかった。
論文 参考訳(メタデータ) (2022-11-08T19:00:00Z) - FETA: Towards Specializing Foundation Models for Expert Task
Applications [49.57393504125937]
ファンデーションモデル(FM)は、ゼロショット学習、高忠実度データ合成、ドメインの一般化など、前例のない機能を示した。
この論文では、FMは、まだ専門家のタスクにおいて、出来の悪いパフォーマンスを保っていることを示します。
本稿では,FMに技術資料の理解を促すことを目的として,その第1のFETAベンチマークを提案する。
論文 参考訳(メタデータ) (2022-09-08T08:47:57Z) - Causal Scene BERT: Improving object detection by searching for
challenging groups of data [125.40669814080047]
コンピュータビジョンアプリケーションは、物体検出のようなタスクのためにニューラルネットワークでパラメータ化された学習ベースの知覚モジュールに依存している。
これらのモジュールは、トレーニングプロセスに固有のバイアスのため、予想される誤差が低いが、データの非定型的なグループに対して高い誤差を持つことが多い。
本研究の主な貢献は,シミュレートされたシーンに対して因果的介入を行うことにより,前向きにそのようなグループを発見する擬似オートマチック手法である。
論文 参考訳(メタデータ) (2022-02-08T05:14:16Z) - Utilizing XAI technique to improve autoencoder based model for computer
network anomaly detection with shapley additive explanation(SHAP) [0.0]
機械学習(ML)とディープラーニング(DL)メソッドは、特にコンピュータネットワークセキュリティにおいて急速に採用されている。
MLとDLベースのモデルの透明性の欠如は、実装の大きな障害であり、ブラックボックスの性質から批判されている。
XAIは、これらのモデルの信頼性を向上させる上で、説明やアウトプットの解釈を通じて有望な分野である。
論文 参考訳(メタデータ) (2021-12-14T09:42:04Z) - Can Explainable AI Explain Unfairness? A Framework for Evaluating
Explainable AI [3.4823710414760516]
モデル行動の翻訳におけるXAIツールの強みにもかかわらず、批判はXAIツールがフェアウォッシングツールとしての影響を懸念している。
私たちは、バイアスと公平性の問題を検知し、対処する能力に関して、説明可能なAIツールを評価するためのフレームワークを作成しました。
モデルの振る舞いを単純化し、説明する能力があるにもかかわらず、多くの著名なXAIツールはバイアスを検出するのに重要な機能を欠いていることがわかった。
論文 参考訳(メタデータ) (2021-06-14T15:14:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。