論文の概要: Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification
- arxiv url: http://arxiv.org/abs/2310.20478v1
- Date: Tue, 31 Oct 2023 14:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:40:49.118081
- Title: Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification
- Title(参考訳): ブラックボックス:特許分類のための説明可能なディープラーニングモデル
- Authors: Md Shajalal, Sebastian Denef, Md. Rezaul Karim, Alexander Boden,
Gunnar Stevens
- Abstract要約: 深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
- 参考スコア(独自算出の注目度): 48.5140223214582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advancements have led to a large number of patents in a
diverse range of domains, making it challenging for human experts to analyze
and manage. State-of-the-art methods for multi-label patent classification rely
on deep neural networks (DNNs), which are complex and often considered
black-boxes due to their opaque decision-making processes. In this paper, we
propose a novel deep explainable patent classification framework by introducing
layer-wise relevance propagation (LRP) to provide human-understandable
explanations for predictions. We train several DNN models, including Bi-LSTM,
CNN, and CNN-BiLSTM, and propagate the predictions backward from the output
layer up to the input layer of the model to identify the relevance of words for
individual predictions. Considering the relevance score, we then generate
explanations by visualizing relevant words for the predicted patent class.
Experimental results on two datasets comprising two-million patent texts
demonstrate high performance in terms of various evaluation measures. The
explanations generated for each prediction highlight important relevant words
that align with the predicted class, making the prediction more understandable.
Explainable systems have the potential to facilitate the adoption of complex
AI-enabled methods for patent classification in real-world applications.
- Abstract(参考訳): 近年の技術進歩により、さまざまな分野の特許が大量に取得され、人間の専門家が分析と管理を困難にしている。
マルチラベル特許分類のための最先端の手法は、不透明な意思決定プロセスのために複雑でしばしばブラックボックスと見なされるディープニューラルネットワーク(dnn)に依存している。
本稿では,階層的関連性伝播(Layer-wise Relevance propagation, LRP)を導入し, 人為的に理解可能な予測手法を提案する。
我々はbi-lstm,cnn,cnn-bilstmを含む複数のdnnモデルを訓練し,モデルの入力層まで予測を後方へ伝播させ,個々の予測に対する単語の関連性を同定する。
関連性スコアを考慮し、予測した特許クラスに関連する単語を視覚化することで説明を生成する。
200万件の特許文書からなる2つのデータセットの実験結果から, 各種評価指標を用いて高い性能を示した。
各予測で生成された説明は、予測されたクラスと一致する重要な関連する単語を強調し、予測をより理解できるようにする。
説明可能なシステムは、現実世界のアプリケーションにおける特許分類のための複雑なAI対応手法の採用を促進する可能性がある。
関連論文リスト
- Early screening of potential breakthrough technologies with enhanced interpretability: A patent-specific hierarchical attention network model [4.779196219827507]
本稿では,特許文書から将来的な引用数を予測するための解釈可能な機械学習手法を提案する。
35,376の医薬品特許のケーススタディは、我々のアプローチの有効性を実証している。
提案手法は, ブレークスルー技術を特定する上で, 専門家と機械の協調性を高めることが期待されている。
論文 参考訳(メタデータ) (2024-07-24T02:17:10Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - Solving the enigma: Deriving optimal explanations of deep networks [3.9584068556746246]
本稿では,ディープネットワークの説明可能性を高めるための新しいフレームワークを提案する。
本フレームワークは,確立したXAI手法の様々な説明を統合し,非説明を用いて最適な説明を構築する。
以上の結果から,特定基準に基づく最適説明が導出可能であることが示唆された。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Adaptive Taxonomy Learning and Historical Patterns Modelling for Patent Classification [26.85734804493925]
本稿では,特許分類に関する特許に関する情報を包括的に検討する統合フレームワークを提案する。
まず,その意味表現を導出するためのICC符号相関学習モジュールを提案する。
最後に、IPC符号のセマンティクスを含む特許文書の文脈情報と、予測を行うために利用者のシーケンシャルな選好を割り当てる。
論文 参考訳(メタデータ) (2023-08-10T07:02:24Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - A Survey on Sentence Embedding Models Performance for Patent Analysis [0.0]
本稿では,PatentSBERTaアプローチに基づく埋め込みモデルの精度を評価するための標準ライブラリとデータセットを提案する。
patentSBERTa, Bert-for-patents, and TF-IDF Weighted Word Embeddings is the most accuracy for computing sentence embeddeds at the subclass level。
論文 参考訳(メタデータ) (2022-04-28T12:04:42Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。