論文の概要: Enhancing the Patent Matching Capability of Large Language Models via the Memory Graph
- arxiv url: http://arxiv.org/abs/2504.14845v1
- Date: Mon, 21 Apr 2025 03:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 19:40:04.948997
- Title: Enhancing the Patent Matching Capability of Large Language Models via the Memory Graph
- Title(参考訳): メモリグラフによる大規模言語モデルの特許マッチング能力向上
- Authors: Qiushi Xiong, Zhipeng Xu, Zhenghao Liu, Mengjia Wang, Zulong Chen, Yue Sun, Yu Gu, Xiaohua Li, Ge Yu,
- Abstract要約: 本稿では,大規模言語モデルの特許マッチング機能を強化する手法であるMemGraphを提案する。
MemGraph は LLM に特許内の関連エンティティを識別するよう促し、続いてそれらのエンティティを対応するエンティティに帰属させる。
PatentMatchデータセットの実験結果は、MemGraphの有効性を示し、ベースラインLLMよりも17.68%改善された。
- 参考スコア(独自算出の注目度): 22.002949442505926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intellectual Property (IP) management involves strategically protecting and utilizing intellectual assets to enhance organizational innovation, competitiveness, and value creation. Patent matching is a crucial task in intellectual property management, which facilitates the organization and utilization of patents. Existing models often rely on the emergent capabilities of Large Language Models (LLMs) and leverage them to identify related patents directly. However, these methods usually depend on matching keywords and overlook the hierarchical classification and categorical relationships of patents. In this paper, we propose MemGraph, a method that augments the patent matching capabilities of LLMs by incorporating a memory graph derived from their parametric memory. Specifically, MemGraph prompts LLMs to traverse their memory to identify relevant entities within patents, followed by attributing these entities to corresponding ontologies. After traversing the memory graph, we utilize extracted entities and ontologies to improve the capability of LLM in comprehending the semantics of patents. Experimental results on the PatentMatch dataset demonstrate the effectiveness of MemGraph, achieving a 17.68% performance improvement over baseline LLMs. The further analysis highlights the generalization ability of MemGraph across various LLMs, both in-domain and out-of-domain, and its capacity to enhance the internal reasoning processes of LLMs during patent matching. All data and codes are available at https://github.com/NEUIR/MemGraph.
- Abstract(参考訳): 知的財産権(IP)管理は、組織の革新、競争力、価値創造を強化するために、知的資産を戦略的に保護し、活用することを含む。
特許マッチングは知的財産管理において重要な課題であり、特許の組織化と活用を促進する。
既存のモデルは、しばしばLarge Language Models(LLM)の創発的な能力に依存し、関連する特許を直接識別するためにそれらを活用する。
しかしながら、これらの手法は通常、一致するキーワードに依存し、特許の階層的分類と分類的関係を見落としている。
本稿では,そのパラメトリックメモリから派生したメモリグラフを組み込むことで,LCMの特許マッチング能力を向上する手法であるMemGraphを提案する。
具体的には、MemGraph は LLM に自身のメモリをトラバースして特許内の関連エンティティを識別するよう促し、その後、それらのエンティティを対応するオントロジーに帰属させる。
メモリグラフをトラバースした後、抽出されたエンティティとオントロジーを用いて、特許のセマンティクスの理解におけるLCMの能力を向上させる。
PatentMatchデータセットの実験結果は、MemGraphの有効性を示し、ベースラインLLMよりも17.68%の性能向上を実現している。
さらなる分析では、ドメイン内およびドメイン外の両方においてMemGraphの一般化能力と、特許マッチング中のLLMの内部推論プロセスを強化する能力を強調している。
すべてのデータとコードはhttps://github.com/NEUIR/MemGraphで入手できる。
関連論文リスト
- LightPROF: A Lightweight Reasoning Framework for Large Language Model on Knowledge Graph [57.382255728234064]
大きな言語モデル(LLM)は、テキスト理解とゼロショット推論において素晴らしい能力を持っている。
知識グラフ(KG)は、LLMの推論プロセスに対して、リッチで信頼性の高いコンテキスト情報を提供する。
我々は、KGQA(LightPROF)のための新しい軽量で効率的なPrompt Learning-ReasOning Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-04T03:03:47Z) - GraphICL: Unlocking Graph Learning Potential in LLMs through Structured Prompt Design [13.365623514253926]
Graph In-Context Learning (GraphICL)ベンチマークは、グラフ構造をキャプチャし、限られたラベル知識を扱う新しいプロンプトテンプレートからなる包括的なベンチマークである。
システム評価の結果,GraphICLを用いた汎用LLMは,最先端の特殊グラフLLMやグラフニューラルネットワークモデルよりも優れていた。
論文 参考訳(メタデータ) (2025-01-27T03:50:30Z) - How Do Large Language Models Understand Graph Patterns? A Benchmark for Graph Pattern Comprehension [53.6373473053431]
この研究は、グラフパターンタスクにおける大規模言語モデルの能力を評価するためのベンチマークを導入する。
我々は,LLMが用語的記述と位相的記述の両方に基づいて,グラフパターンを理解できるかどうかを評価するベンチマークを開発した。
私たちのベンチマークでは、合成データセットと実際のデータセットの両方と、11のタスクと7のモデルで構成されています。
論文 参考訳(メタデータ) (2024-10-04T04:48:33Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Can Large Language Models Generate High-quality Patent Claims? [0.7535435234862548]
大規模言語モデル(LLM)は、様々なテキスト生成タスクで例外的なパフォーマンスを示している。
本稿では,特許クレーム生成における現在のLCMの性能を評価するためのデータセットを構築した。
論文 参考訳(メタデータ) (2024-06-27T18:07:40Z) - Beyond Scaling: Predicting Patent Approval with Domain-specific Fine-grained Claim Dependency Graph [28.13334909565348]
本稿では,特許データ内の本質的な依存関係を用いて,ドメイン固有グラフ法がモデルより優れていることを示す。
本稿では, 精密な特許データ解析により, 微細粒度cLAim depeNdency (FLAN)グラフを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:22:31Z) - Source Attribution for Large Language Model-Generated Data [57.85840382230037]
合成テキストの生成に寄与したデータプロバイダを特定することで、ソース属性を実行できることが不可欠である。
我々はこの問題を透かしによって取り組めることを示した。
本稿では,アルゴリズム設計により,これらの重要な特性を満足する情報源属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:57Z) - Adaptive Taxonomy Learning and Historical Patterns Modelling for Patent Classification [26.85734804493925]
本稿では,特許分類に関する特許に関する情報を包括的に検討する統合フレームワークを提案する。
まず,その意味表現を導出するためのICC符号相関学習モジュールを提案する。
最後に、IPC符号のセマンティクスを含む特許文書の文脈情報と、予測を行うために利用者のシーケンシャルな選好を割り当てる。
論文 参考訳(メタデータ) (2023-08-10T07:02:24Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - Patent Sentiment Analysis to Highlight Patent Paragraphs [0.0]
特許文書が与えられた場合、異なるセマンティックアノテーションを識別することは興味深い研究の側面である。
手動の特許分析の過程で、より読みやすくするために、段落をマークして意味情報を認識することが実際である。
この作業は、セマンティック情報を自動的に強調する特許実践者を支援し、機械学習の適性を利用して持続的で効率的な特許分析を作成するのに役立つ。
論文 参考訳(メタデータ) (2021-11-06T13:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。