論文の概要: BERT based freedom to operate patent analysis
- arxiv url: http://arxiv.org/abs/2105.00817v1
- Date: Mon, 12 Apr 2021 18:30:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 20:42:48.921083
- Title: BERT based freedom to operate patent analysis
- Title(参考訳): BERTをベースとした特許分析の自由
- Authors: Michael Freunek and Andr\'e Bodmer
- Abstract要約: 本稿では,BERTを自由に適用し,特許分析と特許検索を行う手法を提案する。
BERTは、独立したクレームに対する特許記述のトレーニングによって微調整される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a method to apply BERT to freedom to operate patent
analysis and patent searches. According to the method, BERT is fine-tuned by
training patent descriptions to the independent claims. Each description
represents an invention which is protected by the corresponding claims. Such a
trained BERT could be able to identify or order freedom to operate relevant
patents based on a short description of an invention or product. We tested the
method by training BERT on the patent class G06T1/00 and applied the trained
BERT on five inventions classified in G06T1/60, described via DOCDB abstracts.
The DOCDB abstract are available on ESPACENET of the European Patent Office.
- Abstract(参考訳): 本稿では,BERTを自由に適用し,特許分析と特許検索を行う手法を提案する。
この方法によれば、BERTは独立したクレームに対する特許記述のトレーニングによって微調整される。
各説明は,対応するクレームによって保護される発明を表す。
このような訓練されたBERTは、発明や製品の簡潔な記述に基づいて、関連する特許を識別または命令することができる。
本手法は,特許クラス G06T1/00 で BERT を訓練し,DOCDB で記述した G06T1/60 に分類される5つの発明に BERT を適用した。
DOCDBの要約は欧州特許庁のESPACENETで入手できる。
関連論文リスト
- PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - Towards an Enforceable GDPR Specification [49.1574468325115]
プライバシ・バイ・デザイン(PbD)は、EUなどの現代的なプライバシー規制によって規定されている。
PbDを実現する1つの新しい技術は強制(RE)である
法律規定の正式な仕様を作成するための一連の要件と反復的な方法論を提示する。
論文 参考訳(メタデータ) (2024-02-27T09:38:51Z) - Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification [48.5140223214582]
深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
論文 参考訳(メタデータ) (2023-10-31T14:11:37Z) - Adaptive Taxonomy Learning and Historical Patterns Modelling for Patent
Classification [45.168693589731156]
本稿では,特許分類に関する特許に関する情報を包括的に検討する統合フレームワークを提案する。
まず,その意味表現を導出するためのICC符号相関学習モジュールを提案する。
最後に、IPC符号のセマンティクスを含む特許文書の文脈情報と、予測を行うために利用者のシーケンシャルな選好を割り当てる。
論文 参考訳(メタデータ) (2023-08-10T07:02:24Z) - Multi label classification of Artificial Intelligence related patents
using Modified D2SBERT and Sentence Attention mechanism [0.0]
本稿では,自然言語処理技術とディープラーニング手法を用いて,USPTOが発行する人工知能関連特許を分類する手法を提案する。
実験結果は,他の深層学習法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2023-03-03T12:27:24Z) - BiBERT: Accurate Fully Binarized BERT [69.35727280997617]
BiBERTは、パフォーマンスボトルネックを取り除くために、正確に2項化されたBERTである。
提案手法は,FLOPとモデルサイズで56.3回,31.2回節約できる。
論文 参考訳(メタデータ) (2022-03-12T09:46:13Z) - PatentMiner: Patent Vacancy Mining via Context-enhanced and
Knowledge-guided Graph Attention [2.9290732102216452]
我々は、リッチなセマンティック知識をマイニングし、新たな潜在的な特許を予測するために、PatentMinerという新しい特許空白予測手法を提案する。
特許知識グラフ(例えば、年)は、特許文書から名前付きエンティティ認識と関係抽出を行うことによって構築される。
構築した知識グラフにおいてリンク予測を行うために,CNM(Common Neighbor Method),GAT(Graph Attention Networks),CGAT(Context-enhanced Graph Attention Networks)を提案する。
論文 参考訳(メタデータ) (2021-07-10T17:34:57Z) - Hybrid Model for Patent Classification using Augmented SBERT and KNN [0.0]
本研究は、Sentence-BERT (SBERT) と K Nearest Neighbours (KNN) による特許クレーム分類のハイブリッドアプローチを提供することを目的とする。
提案フレームワークは,トップkのセマンティック類似性特許の検索に基づいて,個々の入力特許クラスとサブクラスを予測する。
論文 参考訳(メタデータ) (2021-03-22T15:23:19Z) - BERT based patent novelty search by training claims to their own
description [0.0]
我々は,BERTの出力を有意義に処理するために,新たなスコアリング方式,関連スコア,あるいは新規スコアを導入する。
特許に関する最初の主張とそれに対応する記述に基づいてBERTを訓練することにより,特許出願の手法を検証した。
BERTの出力は、検索レポートの引用X文書と比較して、関連スコアと結果に基づいて処理されている。
論文 参考訳(メタデータ) (2021-03-01T16:54:50Z) - LEGAL-BERT: The Muppets straight out of Law School [52.53830441117363]
我々は、BERTモデルを下流の法的タスクに適用するためのアプローチを検討し、複数のデータセットで評価する。
以上の結果から,事前学習と微調整のガイドラインが盲目的に従う場合が多いが,法域において必ずしも適切ではないことが示唆された。
LEGAL-BERTは、法的なNLP研究、計算法、法的な技術応用を支援するためのBERTモデルのファミリーである。
論文 参考訳(メタデータ) (2020-10-06T09:06:07Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。