論文の概要: Tracing the Flow of Knowledge From Science to Technology Using Deep Learning
- arxiv url: http://arxiv.org/abs/2512.24259v1
- Date: Tue, 30 Dec 2025 14:36:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.400855
- Title: Tracing the Flow of Knowledge From Science to Technology Using Deep Learning
- Title(参考訳): 深層学習を用いた科学から技術への知識の流れの追跡
- Authors: Michael E. Rose, Mainak Ghosh, Sebastian Erhardt, Cheng Li, Erik Buunk, Dietmar Harhoff,
- Abstract要約: 我々は,特許と学術出版物とを同時に扱うのに適した言語類似性モデルを開発する。
競馬方式の評価では,8つの言語(類似性)モデルを適用し,信頼性の高い特許・特許訴訟を予測する。
私たちのPat-SPECTERモデルは、特許を微調整したSPECTER2モデルとして、最高の性能を発揮することが分かりました。
- 参考スコア(独自算出の注目度): 3.9953761318090115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a language similarity model suitable for working with patents and scientific publications at the same time. In a horse race-style evaluation, we subject eight language (similarity) models to predict credible Patent-Paper Citations. We find that our Pat-SPECTER model performs best, which is the SPECTER2 model fine-tuned on patents. In two real-world scenarios (separating patent-paper-pairs and predicting patent-paper-pairs) we demonstrate the capabilities of the Pat-SPECTER. We finally test the hypothesis that US patents cite papers that are semantically less similar than in other large jurisdictions, which we posit is because of the duty of candor. The model is open for the academic community and practitioners alike.
- Abstract(参考訳): 我々は,特許と学術出版物とを同時に扱うのに適した言語類似性モデルを開発する。
競馬方式の評価では,8つの言語(類似性)モデルを適用し,信頼性の高い特許・特許訴訟を予測する。
私たちのPat-SPECTERモデルは、特許を微調整したSPECTER2モデルとして、最高の性能を発揮することが分かりました。
2つの現実シナリオ(特許-紙-ペアの分離と特許-紙-ペアの予測)において、我々はPat-SPECTERの能力を実証する。
我々は最終的に、米国特許が他の大きな司法管轄区域と意味的に類似しない論文を引用しているという仮説を検証した。
モデルは学術コミュニティや実践者にも開放されている。
関連論文リスト
- PatentEdits: Framing Patent Novelty as Textual Entailment [62.8514393375952]
このデータセットには105万例の修正が成功している。
我々は、文章を文単位でラベル付けするアルゴリズムを設計し、これらの編集がいかに大きな言語モデルで予測できるかを確立する。
引用引用文と起草文の文的含意を評価することは,どの発明的主張が変化しないか,あるいは先行技術に関して新規かを予測するのに特に有効であることを示す。
論文 参考訳(メタデータ) (2024-11-20T17:23:40Z) - InstructPatentGPT: Training patent language models to follow instructions with human feedback [0.9790236766474201]
この研究は、言語モデルが付与される可能性の高い特許クレームを生成する可能性を高めることを目的としている。
言語モデルの制御性を示すために、システムは与えられた特許と異なる報酬を持つプレグラントアプリケーションから学習する。
論文 参考訳(メタデータ) (2024-05-25T11:48:50Z) - A comparative analysis of embedding models for patent similarity [0.0]
本稿では,テキストに基づく特許類似性の分野に2つの貢献をする。
これは、異なる種類の特許固有の事前訓練された埋め込みモデルの性能を比較する。
論文 参考訳(メタデータ) (2024-03-25T11:20:23Z) - PaECTER: Patent-level Representation Learning using Citation-informed Transformers [0.1957338076370071]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - A Roadmap to Pluralistic Alignment [49.29107308098236]
本稿では,言語モデルをテストベッドとして用いた多元的アライメントのロードマップを提案する。
我々は,AIシステムにおける多元性を定義・運用する3つの可能な方法を特定し,定式化する。
我々は、現在のアライメント技術は、基本的に多元的AIに限られていると論じる。
論文 参考訳(メタデータ) (2024-02-07T18:21:17Z) - Language Models: A Guide for the Perplexed [51.88841610098437]
このチュートリアルは、言語モデルを学ぶ人と、興味を持ち、もっと学びたいと思う人とのギャップを狭めることを目的としています。
実験を通して学ぶことができる質問に焦点を当てた科学的視点を提供する。
言語モデルは、現在、その開発に繋がる研究の文脈に置かれています。
論文 参考訳(メタデータ) (2023-11-29T01:19:02Z) - Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification [48.5140223214582]
深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
論文 参考訳(メタデータ) (2023-10-31T14:11:37Z) - Adaptive Taxonomy Learning and Historical Patterns Modelling for Patent Classification [26.85734804493925]
本稿では,特許分類に関する特許に関する情報を包括的に検討する統合フレームワークを提案する。
まず,その意味表現を導出するためのICC符号相関学習モジュールを提案する。
最後に、IPC符号のセマンティクスを含む特許文書の文脈情報と、予測を行うために利用者のシーケンシャルな選好を割り当てる。
論文 参考訳(メタデータ) (2023-08-10T07:02:24Z) - Evaluating Generative Patent Language Models [1.8275108630751844]
この原稿は、特許ドメインで生成言語モデルを構築することを目的としている。
パースペクティブは、自動補完によって保存できるキーストロークの割合を測定することである。
この写本で構築された最大のモデルは6Bであり、特許領域における最先端の技術である。
論文 参考訳(メタデータ) (2022-06-23T08:58:05Z) - SLUA: A Super Lightweight Unsupervised Word Alignment Model via
Cross-Lingual Contrastive Learning [79.91678610678885]
超軽量非教師付き単語アライメントモデル(SLUA)を提案する。
いくつかの公開ベンチマークによる実験結果から,我々のモデルは性能が向上しても競争力を発揮することが示された。
特に、我々のモデルはバイリンガル単語の埋め込みと単語のアライメントを統一する先駆的な試みであると認識している。
論文 参考訳(メタデータ) (2021-02-08T05:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。