論文の概要: BERT based patent novelty search by training claims to their own
description
- arxiv url: http://arxiv.org/abs/2103.01126v2
- Date: Tue, 2 Mar 2021 07:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 17:34:51.228199
- Title: BERT based patent novelty search by training claims to their own
description
- Title(参考訳): BERTをベースとした特許ノベルティ検索のトレーニング
- Authors: Michael Freunek and Andr\'e Bodmer
- Abstract要約: 我々は,BERTの出力を有意義に処理するために,新たなスコアリング方式,関連スコア,あるいは新規スコアを導入する。
特許に関する最初の主張とそれに対応する記述に基づいてBERTを訓練することにより,特許出願の手法を検証した。
BERTの出力は、検索レポートの引用X文書と比較して、関連スコアと結果に基づいて処理されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a method to concatenate patent claims to their own
description. By applying this method, BERT trains suitable descriptions for
claims. Such a trained BERT (claim-to-description- BERT) could be able to
identify novelty relevant descriptions for patents. In addition, we introduce a
new scoring scheme, relevance scoring or novelty scoring, to process the output
of BERT in a meaningful way. We tested the method on patent applications by
training BERT on the first claims of patents and corresponding descriptions.
BERT's output has been processed according to the relevance score and the
results compared with the cited X documents in the search reports. The test
showed that BERT has scored some of the cited X documents as highly relevant.
- Abstract(参考訳): 本稿では,特許クレームを自己記述に結合する手法を提案する。
この方法を適用することで、BERTはクレームの適切な記述を訓練する。
このようなトレーニングされたBERT (claim-to-description- BERT) は、特許の新規性に関する記述を識別することができる。
さらに,BERTの出力を有意に処理するために,新たなスコアリング方式,関連スコア,あるいは新規スコアを導入する。
特許に関する最初の主張とそれに対応する記述に基づいてBERTを訓練することにより,特許出願の手法を検証した。
BERTの出力は、検索レポートの引用X文書と比較して、関連スコアと結果に基づいて処理されている。
テストの結果、BERTは引用されたX文書のいくつかを非常に関連性が高いと評価した。
関連論文リスト
- PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - Multi label classification of Artificial Intelligence related patents
using Modified D2SBERT and Sentence Attention mechanism [0.0]
本稿では,自然言語処理技術とディープラーニング手法を用いて,USPTOが発行する人工知能関連特許を分類する手法を提案する。
実験結果は,他の深層学習法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2023-03-03T12:27:24Z) - A Systematic Review and Replicability Study of BERT4Rec for Sequential
Recommendation [91.02268704681124]
BERT4RecはTransformerアーキテクチャに基づいたシーケンシャルなレコメンデーションのための効果的なモデルである。
BERT4Recの結果はこれらの出版物では一致していない。
本稿では,Hugging Face Transformersライブラリに基づくBERT4Recの実装を提案する。
論文 参考訳(メタデータ) (2022-07-15T14:09:04Z) - BiBERT: Accurate Fully Binarized BERT [69.35727280997617]
BiBERTは、パフォーマンスボトルネックを取り除くために、正確に2項化されたBERTである。
提案手法は,FLOPとモデルサイズで56.3回,31.2回節約できる。
論文 参考訳(メタデータ) (2022-03-12T09:46:13Z) - BERT based freedom to operate patent analysis [0.0]
本稿では,BERTを自由に適用し,特許分析と特許検索を行う手法を提案する。
BERTは、独立したクレームに対する特許記述のトレーニングによって微調整される。
論文 参考訳(メタデータ) (2021-04-12T18:30:46Z) - Hybrid Model for Patent Classification using Augmented SBERT and KNN [0.0]
本研究は、Sentence-BERT (SBERT) と K Nearest Neighbours (KNN) による特許クレーム分類のハイブリッドアプローチを提供することを目的とする。
提案フレームワークは,トップkのセマンティック類似性特許の検索に基づいて,個々の入力特許クラスとサブクラスを予測する。
論文 参考訳(メタデータ) (2021-03-22T15:23:19Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z) - Prior Art Search and Reranking for Generated Patent Text [1.8275108630751844]
我々は、その出力に基づいて、GPTモデルに最もよく似た入力を振り返りに識別するリグレードシステムを実装した。
我々の知る限り、この研究は初めて、その出力に基づいてGPTモデルに最もよく似た入力を振り返りに識別するリグレードシステムを実装する。
論文 参考訳(メタデータ) (2020-09-19T01:16:18Z) - Context-Based Quotation Recommendation [60.93257124507105]
本稿では,新しい文脈対応引用レコメンデーションシステムを提案する。
これは、所定のソース文書から引用可能な段落とトークンの列挙リストを生成する。
音声テキストと関連するニュース記事の収集実験を行う。
論文 参考訳(メタデータ) (2020-05-17T17:49:53Z) - DC-BERT: Decoupling Question and Document for Efficient Contextual
Encoding [90.85913515409275]
近年のオープンドメイン質問応答は,BERT などの事前学習言語モデルを用いて顕著な性能向上を実現している。
本稿では,2つのBERTモデルを持つコンテキストエンコーディングフレームワークであるDC-BERTと,すべての文書を事前エンコードし,それらのエンコーディングをキャッシュするオフラインBERTを提案する。
SQuADオープンとNatural Questionsオープンデータセットでは、DC-BERTは文書検索の10倍のスピードアップを実現し、QAパフォーマンスのほとんど(約98%)を維持している。
論文 参考訳(メタデータ) (2020-02-28T08:18:37Z) - Incorporating BERT into Neural Machine Translation [251.54280200353674]
本稿では,入力シーケンスの表現抽出にBERTを用いたBERT融合モデルを提案する。
我々は、教師付き(文レベルと文書レベルの翻訳を含む)、半教師なしおよび教師なしの機械翻訳の実験を行い、7つのベンチマークデータセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-02-17T08:13:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。