論文の概要: Explainable automatic industrial carbon footprint estimation from bank transaction classification using natural language processing
- arxiv url: http://arxiv.org/abs/2405.14505v1
- Date: Thu, 23 May 2024 12:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 15:15:02.586257
- Title: Explainable automatic industrial carbon footprint estimation from bank transaction classification using natural language processing
- Title(参考訳): 自然言語処理を用いた銀行取引分類に基づく説明可能な産業用炭素フットプリント推定
- Authors: Jaime González-González, Silvia García-Méndez, Francisco de Arriba-Pérez, Francisco J. González-Castaño, Óscar Barba-Seara,
- Abstract要約: 提案手法は, 銀行取引に関連するCO2排出量を推定する。
局所的解釈可能なモデルを用いて,トランザクション記述から抽出した入力項の影響を評価する。
- 参考スコア(独自算出の注目度): 6.354358255072839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concerns about the effect of greenhouse gases have motivated the development of certification protocols to quantify the industrial carbon footprint (CF). These protocols are manual, work-intensive, and expensive. All of the above have led to a shift towards automatic data-driven approaches to estimate the CF, including Machine Learning (ML) solutions. Unfortunately, the decision-making processes involved in these solutions lack transparency from the end user's point of view, who must blindly trust their outcomes compared to intelligible traditional manual approaches. In this research, manual and automatic methodologies for CF estimation were reviewed, taking into account their transparency limitations. This analysis led to the proposal of a new explainable ML solution for automatic CF calculations through bank transaction classification. Consideration should be given to the fact that no previous research has considered the explainability of bank transaction classification for this purpose. For classification, different ML models have been employed based on their promising performance in the literature, such as Support Vector Machine, Random Forest, and Recursive Neural Networks. The results obtained were in the 90 % range for accuracy, precision, and recall evaluation metrics. From their decision paths, the proposed solution estimates the CO2 emissions associated with bank transactions. The explainability methodology is based on an agnostic evaluation of the influence of the input terms extracted from the descriptions of transactions using locally interpretable models. The explainability terms were automatically validated using a similarity metric over the descriptions of the target categories. Conclusively, the explanation performance is satisfactory in terms of the proximity of the explanations to the associated activity sector descriptions.
- Abstract(参考訳): 温室効果ガスの影響に関する懸念は、工業用炭素フットプリント(CF)の定量化のための認証プロトコルの開発を動機付けている。
これらのプロトコルは手作業で、作業集約的で、高価です。
これらすべては、機械学習(ML)ソリューションを含むCFを推定するための自動データ駆動アプローチへの移行につながった。
残念ながら、これらのソリューションに関わる意思決定プロセスには、エンドユーザーの視点からの透明性が欠如しています。
本研究では,CF推定のための手動および自動手法について,その透明性の限界を考慮した検討を行った。
この分析により、銀行取引分類によるCFの自動計算のための説明可能なMLソリューションが提案された。
この目的のために、これまでの研究では、銀行取引分類の説明可能性については検討されていないという事実に留意すべきである。
分類には、Support Vector Machine、Random Forest、Recursive Neural Networksなど、文学における有望なパフォーマンスに基づいて、さまざまなMLモデルが採用されている。
その結果、精度、精度、リコール評価基準の90%の範囲で得られた。
決定経路から、提案したソリューションは、銀行取引に関連するCO2排出量を推定する。
本手法は, 局所解釈可能なモデルを用いて, トランザクション記述から抽出した入力項の影響を非依存に評価することに基づく。
説明可能性の項は、対象カテゴリの記述に対する類似度尺度を用いて自動的に検証された。
総じて、説明性能は、関連する活動セクターの記述に説明が近接しているという点で十分である。
関連論文リスト
- An Innovative Attention-based Ensemble System for Credit Card Fraud Detection [5.486205584465161]
本稿では,クレジットカード不正検出のためのユニークな注意に基づくアンサンブルモデルを提案する。
アンサンブルモデルの精度は 99.95% であり、曲線 (AUC) の下の面積は 1 である。
論文 参考訳(メタデータ) (2024-10-01T09:56:23Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - KIEval: A Knowledge-grounded Interactive Evaluation Framework for Large Language Models [53.84677081899392]
KIEvalは、大規模言語モデルのための知識ベースでインタラクティブな評価フレームワークである。
動的汚染耐性評価を達成するために、LSMを動力とする"インターアクター"の役割を初めて取り入れている。
5つのデータセットにわたる7つのLLMの大規模な実験により、KIEvalの有効性と一般化が検証された。
論文 参考訳(メタデータ) (2024-02-23T01:30:39Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - An Audit Framework for Technical Assessment of Binary Classifiers [0.0]
ロジスティック回帰 (MLogRM) とランダムフォレストモデル (RFM) を用いたマルチレベルモデルは、二項分類のために産業にますます導入されている。
欧州委員会が提案する人工知能法(AIA)は、特定の条件下では、そのようなモデルの適用は公正で透明性があり倫理的である必要がある。
本稿では, モデル, 識別, 透明性, 説明可能性に関する側面に着目し, RFM と MLogRM の技術的評価のための監査フレームワークを提案し, 実証する。
論文 参考訳(メタデータ) (2022-11-17T12:48:11Z) - A Framework for Auditing Multilevel Models using Explainability Methods [2.578242050187029]
回帰の技術的評価のための監査フレームワークを提案する。
焦点は3つの側面、モデル、差別、透明性と説明責任である。
SHAP や LIME などの一般的な説明可能性法は,これらのモデルを解釈する際には精度が低いことが示されている。
論文 参考訳(メタデータ) (2022-07-04T17:53:21Z) - CEBaB: Estimating the Causal Effects of Real-World Concepts on NLP Model
Behavior [26.248879735549277]
実世界の概念がMLモデルの出力挙動に与える影響を推定する因果推論問題として、モデル説明をキャストした。
自然言語処理(NLP)における概念に基づく説明手法を評価するための新しいベンチマークデータセットCEBaBを紹介する。
CEBaBを用いて,様々な仮定や概念を網羅した概念に基づく説明手法の質を比較した。
論文 参考訳(メタデータ) (2022-05-27T17:59:14Z) - Coalitional Bayesian Autoencoders -- Towards explainable unsupervised
deep learning [78.60415450507706]
その結果,BAEの予測は高い相関関係にあり,誤解を招くことが示唆された。
これを軽減するために、エージェントベースのシステム理論にインスパイアされた"Coalitional BAE"が提案されている。
公開条件監視データセットに関する実験は、Coalitional BAEを用いた説明の質の向上を実証している。
論文 参考訳(メタデータ) (2021-10-19T15:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。