論文の概要: Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification
- arxiv url: http://arxiv.org/abs/2310.20478v1
- Date: Tue, 31 Oct 2023 14:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:40:49.118081
- Title: Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification
- Title(参考訳): ブラックボックス:特許分類のための説明可能なディープラーニングモデル
- Authors: Md Shajalal, Sebastian Denef, Md. Rezaul Karim, Alexander Boden,
Gunnar Stevens
- Abstract要約: 深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
- 参考スコア(独自算出の注目度): 48.5140223214582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advancements have led to a large number of patents in a
diverse range of domains, making it challenging for human experts to analyze
and manage. State-of-the-art methods for multi-label patent classification rely
on deep neural networks (DNNs), which are complex and often considered
black-boxes due to their opaque decision-making processes. In this paper, we
propose a novel deep explainable patent classification framework by introducing
layer-wise relevance propagation (LRP) to provide human-understandable
explanations for predictions. We train several DNN models, including Bi-LSTM,
CNN, and CNN-BiLSTM, and propagate the predictions backward from the output
layer up to the input layer of the model to identify the relevance of words for
individual predictions. Considering the relevance score, we then generate
explanations by visualizing relevant words for the predicted patent class.
Experimental results on two datasets comprising two-million patent texts
demonstrate high performance in terms of various evaluation measures. The
explanations generated for each prediction highlight important relevant words
that align with the predicted class, making the prediction more understandable.
Explainable systems have the potential to facilitate the adoption of complex
AI-enabled methods for patent classification in real-world applications.
- Abstract(参考訳): 近年の技術進歩により、さまざまな分野の特許が大量に取得され、人間の専門家が分析と管理を困難にしている。
マルチラベル特許分類のための最先端の手法は、不透明な意思決定プロセスのために複雑でしばしばブラックボックスと見なされるディープニューラルネットワーク(dnn)に依存している。
本稿では,階層的関連性伝播(Layer-wise Relevance propagation, LRP)を導入し, 人為的に理解可能な予測手法を提案する。
我々はbi-lstm,cnn,cnn-bilstmを含む複数のdnnモデルを訓練し,モデルの入力層まで予測を後方へ伝播させ,個々の予測に対する単語の関連性を同定する。
関連性スコアを考慮し、予測した特許クラスに関連する単語を視覚化することで説明を生成する。
200万件の特許文書からなる2つのデータセットの実験結果から, 各種評価指標を用いて高い性能を示した。
各予測で生成された説明は、予測されたクラスと一致する重要な関連する単語を強調し、予測をより理解できるようにする。
説明可能なシステムは、現実世界のアプリケーションにおける特許分類のための複雑なAI対応手法の採用を促進する可能性がある。
関連論文リスト
- FakeNewsGPT4: Advancing Multimodal Fake News Detection through
Knowledge-Augmented LVLMs [50.13829380113614]
本稿では,大規模視覚言語モデル(Large Vision-Language Models)を,操作推論のためのフォージェリ固有の知識で拡張する新しいフレームワークを提案する。
FakeNewsGPT4は、以前の方法よりも優れたクロスドメインパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-04T12:35:09Z) - Adaptive Taxonomy Learning and Historical Patterns Modelling for Patent
Classification [45.168693589731156]
本稿では,特許分類に関する特許に関する情報を包括的に検討する統合フレームワークを提案する。
まず,その意味表現を導出するためのICC符号相関学習モジュールを提案する。
最後に、IPC符号のセマンティクスを含む特許文書の文脈情報と、予測を行うために利用者のシーケンシャルな選好を割り当てる。
論文 参考訳(メタデータ) (2023-08-10T07:02:24Z) - COCKATIEL: COntinuous Concept ranKed ATtribution with Interpretable
ELements for explaining neural net classifiers on NLP tasks [3.475906200620518]
COCKATIELは、新しい、ポストホック、コンセプトベース、モデルに依存しないXAI技術である。
NLP分類タスクでトレーニングされたニューラルネットモデルの最後の層から意味のある説明を生成する。
基礎となるモデルの精度を損なうことなく、新しいモデルをトレーニングする必要もない。
論文 参考訳(メタデータ) (2023-05-11T12:22:20Z) - Dual Box Embeddings for the Description Logic EL++ [18.779933562725635]
知識グラフ(KG)と同様に、知識グラフはしばしば不完全であり、それらの維持と構築は困難であることが証明された。
KGsと同様に、有望なアプローチは、潜在ベクトル空間への埋め込みを学習し、基礎となるDLのセマンティクスに固執することである。
そこで本研究では,概念と役割をボックスとして表現した,DL EL++用のBox$2$ELという新しいオントロジー埋め込み手法を提案する。
論文 参考訳(メタデータ) (2023-01-26T14:13:37Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - A Survey on Sentence Embedding Models Performance for Patent Analysis [0.0]
本稿では,PatentSBERTaアプローチに基づく埋め込みモデルの精度を評価するための標準ライブラリとデータセットを提案する。
patentSBERTa, Bert-for-patents, and TF-IDF Weighted Word Embeddings is the most accuracy for computing sentence embeddeds at the subclass level。
論文 参考訳(メタデータ) (2022-04-28T12:04:42Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。