論文の概要: Comparing Complex Concepts with Transformers: Matching Patent Claims Against Natural Language Text
- arxiv url: http://arxiv.org/abs/2407.10351v1
- Date: Sun, 14 Jul 2024 22:31:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 16:40:16.531419
- Title: Comparing Complex Concepts with Transformers: Matching Patent Claims Against Natural Language Text
- Title(参考訳): 複合概念と変圧器の比較:自然言語テキストに対する特許主張のマッチング
- Authors: Matthias Blume, Ghobad Heidari, Christoph Hewel,
- Abstract要約: 特許出願や特許ポートフォリオを管理する重要な能力は、請求書を他のテキスト、例えば特許仕様と比較することである。
2つの新しいLCMベースのアプローチをテストし、両者が以前公表した値よりもかなり優れたパフォーマンスを提供することを示した。
あるドメインからの密集した情報を、異なる語彙で表されるはるかに多くの分散情報とマッチングする能力は、知的財産空間を超えても有用である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key capability in managing patent applications or a patent portfolio is comparing claims to other text, e.g. a patent specification. Because the language of claims is different from language used elsewhere in the patent application or in non-patent text, this has been challenging for computer based natural language processing. We test two new LLM-based approaches and find that both provide substantially better performance than previously published values. The ability to match dense information from one domain against much more distributed information expressed in a different vocabulary may also be useful beyond the intellectual property space.
- Abstract(参考訳): 特許出願や特許ポートフォリオを管理する上で重要な機能は、クレームを他のテキストと比較することである。
クレームの言語は、特許出願や非パテントテキストで使われている言語とは異なるため、コンピュータベースの自然言語処理では困難である。
2つの新しいLCMベースのアプローチをテストし、両者が以前公表した値よりもかなり優れたパフォーマンスを提供することを示した。
あるドメインからの密集した情報を、異なる語彙で表されるはるかに多くの分散情報とマッチングする能力は、知的財産空間を超えても有用である。
関連論文リスト
- PatentEdits: Framing Patent Novelty as Textual Entailment [62.8514393375952]
このデータセットには105万例の修正が成功している。
我々は、文章を文単位でラベル付けするアルゴリズムを設計し、これらの編集がいかに大きな言語モデルで予測できるかを確立する。
引用引用文と起草文の文的含意を評価することは,どの発明的主張が変化しないか,あるいは先行技術に関して新規かを予測するのに特に有効であることを示す。
論文 参考訳(メタデータ) (2024-11-20T17:23:40Z) - Connecting the Dots: Inferring Patent Phrase Similarity with Retrieved Phrase Graphs [18.86788223751979]
本稿では,2つの特許句間の意味的類似度を測定する特許フレーズ類似性推論タスクについて検討する。
本稿では,特許用語のグローバルな文脈情報を増幅するためのグラフ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T18:59:38Z) - Natural Language Processing in Patents: A Survey [0.0]
重要な技術的および法的情報をカプセル化した特許は、自然言語処理(NLP)アプリケーションのための豊富なドメインを提供する。
NLP技術が発展するにつれて、大規模言語モデル(LLM)は一般的なテキスト処理や生成タスクにおいて優れた能力を示してきた。
本稿は,NLP研究者に,この複雑な領域を効率的にナビゲートするために必要な知識を付与することを目的とする。
論文 参考訳(メタデータ) (2024-03-06T23:17:16Z) - PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - UltraLink: An Open-Source Knowledge-Enhanced Multilingual Supervised
Fine-tuning Dataset [69.33424532827608]
オープンソースの大規模言語モデル(LLM)は、様々な分野において大きな強みを持っている。
本研究では,オープンソースの多言語教師付き微調整データセットを構築する。
結果として得られたUltraLinkデータセットは、5つの言語にわたる約100万のサンプルで構成されている。
論文 参考訳(メタデータ) (2024-02-07T05:05:53Z) - Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification [48.5140223214582]
深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
論文 参考訳(メタデータ) (2023-10-31T14:11:37Z) - A Novel Patent Similarity Measurement Methodology: Semantic Distance and
Technological Distance [0.0]
特許類似性分析は、特許侵害のリスクを評価する上で重要な役割を果たす。
自然言語処理技術の最近の進歩は、このプロセスを自動化するための有望な道を提供する。
本稿では,特許間の類似性を考慮し,特許の意味的類似性を考慮し,特許間の類似度を測定するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T07:55:31Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - CLIP also Understands Text: Prompting CLIP for Phrase Understanding [65.59857372525664]
Contrastive Language-Image Pretraining (CLIP)は、自然言語による事前学習によって視覚概念を効率的に学習する。
本稿では,CLIPのテキストエンコーダが語句理解の強力な能力を示し,適切な設計のプロンプトでBERTなどの一般的な言語モデルよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T23:35:18Z) - Linguistically Informed Masking for Representation Learning in the
Patent Domain [7.911344873839031]
本稿では、特許の言語パターンにドメイン適応型事前学習を集中させる、経験的動機付け言語情報マスキング(LIM)手法を提案する。
我々は、特許、科学および汎用言語間の関連する相違を定量化する。
特許ドメインのドメイン適応において、異なる情報ソースからの学習のバランスをとることが及ぼす影響を実証する。
論文 参考訳(メタデータ) (2021-06-10T14:20:57Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。