論文の概要: Prototype-Based Methods in Explainable AI and Emerging Opportunities in the Geosciences
- arxiv url: http://arxiv.org/abs/2410.19856v1
- Date: Tue, 22 Oct 2024 14:19:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:56.304724
- Title: Prototype-Based Methods in Explainable AI and Emerging Opportunities in the Geosciences
- Title(参考訳): 説明可能なAIのプロトタイプベース手法と地球科学の新たな可能性
- Authors: Anushka Narayanan, Karianne J. Bergen,
- Abstract要約: 我々はプロトタイプベースのXAI文献を,プロトタイプの開発と可視化,プロトタイプの種類,各種学習タスクにおけるプロトタイプの利用という3つのテーマにまとめる。
我々は、XAI手法の開発に使用される標準ベンチマークと地学データセットの違いを強調し、既存のプロトタイプベースのXAI技術を使用したり、修正したりすることで、特定の地学応用がどのような恩恵を受けるかについて議論する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Prototype-based methods are intrinsically interpretable XAI methods that produce predictions and explanations by comparing input data with a set of learned prototypical examples that are representative of the training data. In this work, we discuss a series of developments in the field of prototype-based XAI that show potential for scientific learning tasks, with a focus on the geosciences. We organize the prototype-based XAI literature into three themes: the development and visualization of prototypes, types of prototypes, and the use of prototypes in various learning tasks. We discuss how the authors use prototype-based methods, their novel contributions, and any limitations or challenges that may arise when adapting these methods for geoscientific learning tasks. We highlight differences between geoscientific data sets and the standard benchmarks used to develop XAI methods, and discuss how specific geoscientific applications may benefit from using or modifying existing prototype-based XAI techniques.
- Abstract(参考訳): 原型に基づく手法は、入力データとトレーニングデータを代表する学習された原型例のセットを比較して、予測と説明を生成するXAI法を本質的に解釈可能な手法である。
本研究では,地球科学に焦点をあて,科学的学習タスクの可能性を示すプロトタイプベースのXAIの一連の開発について論じる。
我々はプロトタイプベースのXAI文献を,プロトタイプの開発と可視化,プロトタイプの種類,各種学習タスクにおけるプロトタイプの利用という3つのテーマにまとめる。
筆者らは,これらの手法を地学学習タスクに適用する際に生じるであろう,プロトタイプベースの手法,その新しい貢献,限界や課題について論じる。
我々は、XAI手法の開発に使用される標準ベンチマークと地学データセットの違いを強調し、既存のプロトタイプベースのXAI技術を使用したり、修正したりすることで、特定の地学応用がどのような恩恵を受けるかについて議論する。
関連論文リスト
- User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - EXACT: Towards a platform for empirically benchmarking Machine Learning model explanation methods [1.6383837447674294]
本稿では、初期ベンチマークプラットフォームにおいて、様々なベンチマークデータセットと新しいパフォーマンス指標をまとめる。
我々のデータセットには、クラス条件の特徴に対する真実の説明が組み込まれています。
このプラットフォームは、それらが生成する説明の品質において、ポストホックなXAIメソッドのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-05-20T14:16:06Z) - Systematic Mapping Protocol -- UX Design role in software development
process [55.2480439325792]
ソフトウェア開発プロセスにおけるUXデザイナの役割を調べるための体系的なマッピングプロトコルを提案する。
本研究は,地図作成に使用する研究課題,スコープ,ソース,検索戦略,選択基準,データ抽出,分析方法を定義する。
論文 参考訳(メタデータ) (2024-02-20T16:56:46Z) - Learning Transferable Conceptual Prototypes for Interpretable
Unsupervised Domain Adaptation [79.22678026708134]
本稿では,Transferable Prototype Learning (TCPL) という,本質的に解釈可能な手法を提案する。
この目的を達成するために、ソースドメインからターゲットドメインにカテゴリの基本概念を転送する階層的なプロトタイプモジュールを設計し、基礎となる推論プロセスを説明するためにドメイン共有プロトタイプを学習する。
総合的な実験により,提案手法は有効かつ直感的な説明を提供するだけでなく,従来の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-12T06:36:41Z) - Explainable GeoAI: Can saliency maps help interpret artificial
intelligence's learning process? An empirical study on natural feature
detection [4.52308938611108]
本稿では,GeoAIと深層学習モデルの推論行動の解釈において,一般的なサリエンシマップ生成手法とその長所と短所を比較した。
実験では、2つのGeoAI対応データセットを使用して、研究結果の一般化性を実証した。
論文 参考訳(メタデータ) (2023-03-16T21:37:29Z) - Visualizing Transferred Knowledge: An Interpretive Model of Unsupervised
Domain Adaptation [70.85686267987744]
教師なしのドメイン適応問題は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することができる。
本稿では、翻訳された知識の謎を視覚的に明らかにする最初の試みとして、教師なしドメイン適応の解釈モデルを提案する。
提案手法は,ベースモデルの予測を直感的に説明し,画像パッチをソースドメインとターゲットドメインの両方で同一のセマンティクスとマッチングすることで伝達知識を公開する。
論文 参考訳(メタデータ) (2023-03-04T03:02:12Z) - Analyzing EEG Data with Machine and Deep Learning: A Benchmark [23.893444154059324]
本稿では,脳波信号解析に焦点をあて,脳波信号分類のための機械学習と深層学習のベンチマークを文献で初めて行った。
実験では,多層パーセプトロン,畳み込みニューラルネットワーク,長期記憶,ゲートリカレントユニットの4つのモデルを用いた。
論文 参考訳(メタデータ) (2022-03-18T15:18:55Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Artificial Text Detection via Examining the Topology of Attention Maps [58.46367297712477]
トポロジカルデータ分析(TDA)に基づく3種類の解釈可能なトポロジカル特徴を提案する。
BERTモデルから派生した特徴が3つの共通データセットにおいて、カウントベースとニューラルベースベースラインを最大10%上回っていることを実証的に示す。
特徴の探索解析は表面に対する感度と構文的性質を明らかにしている。
論文 参考訳(メタデータ) (2021-09-10T12:13:45Z) - An Empirical Study of Explainable AI Techniques on Deep Learning Models
For Time Series Tasks [18.70973390984415]
機械学習のブラックボックスモデルの決定的説明は、しばしば説明可能なAI(XAI)技術を適用して生成される。
評価と検証は通常、人間による個々の画像やテキストの視覚的解釈によって達成される。
時系列画像やテキストデータ用に開発されたニューラルネットワークのアトリビューション手法を適用するための実証的研究とベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-08T10:33:57Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。