論文の概要: PatentTransformer-2: Controlling Patent Text Generation by Structural
Metadata
- arxiv url: http://arxiv.org/abs/2001.03708v1
- Date: Sat, 11 Jan 2020 03:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 09:36:05.903661
- Title: PatentTransformer-2: Controlling Patent Text Generation by Structural
Metadata
- Title(参考訳): Patent Transformer-2: 構造メタデータによる特許文書生成制御
- Authors: Jieh-Sheng Lee and Jieh Hsiang
- Abstract要約: PatentTransformerは、Transformerベースのモデルに基づく特許テキスト生成のためのコードネームです。
この第2バージョンでは、特許における構造メタデータをより活用しています。
我々は、スクラッチからトレーニングされたGPT-2モデルと推論のためのコードをリリースし、読者が自分で特許文書を検証して生成できるようにした。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PatentTransformer is our codename for patent text generation based on
Transformer-based models. Our goal is "Augmented Inventing." In this second
version, we leverage more of the structural metadata in patents. The structural
metadata includes patent title, abstract, and dependent claim, in addition to
independent claim previously. Metadata controls what kind of patent text for
the model to generate. Also, we leverage the relation between metadata to build
a text-to-text generation flow, for example, from a few words to a title, the
title to an abstract, the abstract to an independent claim, and the independent
claim to multiple dependent claims. The text flow can go backward because the
relation is trained bidirectionally. We release our GPT-2 models trained from
scratch and our code for inference so that readers can verify and generate
patent text on their own. As for generation quality, we measure it by both
ROUGE and Google Universal Sentence Encoder.
- Abstract(参考訳): PatentTransformerは、Transformerベースのモデルに基づく特許テキスト生成のためのコードネームです。
目標は"Augmented Inventing"です。
この第2バージョンでは、特許における構造メタデータをより活用しています。
構造メタデータは、以前に独立したクレームに加えて、特許権、抽象権、従属権を含む。
メタデータは、モデルが生成する特許テキストの種類を制御する。
また、メタデータ間の関係を利用してテキストからテキストへの生成フローを構築する。例えば、数語からタイトル、タイトルから抽象語への変換、独立したクレームへの抽象化、複数の依存クレームへの独立クレームなどである。
関係が双方向に訓練されているため、テキストフローは後方に進むことができる。
我々は、スクラッチからトレーニングされたGPT-2モデルと推論のためのコードをリリースし、読者が自分で特許文書を検証して生成できるようにした。
世代品質については、rougeとgoogle universal sentence encodingrの両方で測定します。
関連論文リスト
- PatentEdits: Framing Patent Novelty as Textual Entailment [62.8514393375952]
このデータセットには105万例の修正が成功している。
我々は、文章を文単位でラベル付けするアルゴリズムを設計し、これらの編集がいかに大きな言語モデルで予測できるかを確立する。
引用引用文と起草文の文的含意を評価することは,どの発明的主張が変化しないか,あるいは先行技術に関して新規かを予測するのに特に有効であることを示す。
論文 参考訳(メタデータ) (2024-11-20T17:23:40Z) - Pap2Pat: Towards Automated Paper-to-Patent Drafting using Chunk-based Outline-guided Generation [13.242188189150987]
PAP2PATは、文書概要を含む1.8kの特許と特許のペアの新しい挑戦的なベンチマークである。
現在のオープンウェイト LLM とアウトライン誘導型ジェネレーションによる実験は,特許言語の本質的な反復性のために,論文からの情報を効果的に活用できるが,繰り返しに苦慮していることを示している。
論文 参考訳(メタデータ) (2024-10-09T15:52:48Z) - Connecting the Dots: Inferring Patent Phrase Similarity with Retrieved Phrase Graphs [18.86788223751979]
本稿では,2つの特許句間の意味的類似度を測定する特許フレーズ類似性推論タスクについて検討する。
本稿では,特許用語のグローバルな文脈情報を増幅するためのグラフ拡張手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T18:59:38Z) - PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - Grounded Keys-to-Text Generation: Towards Factual Open-Ended Generation [92.1582872870226]
そこで我々は,新しい接地型キー・ツー・テキスト生成タスクを提案する。
タスクは、ガイドキーと接地パスのセットが与えられたエンティティに関する事実記述を生成することである。
近年のQAに基づく評価手法に着想を得て,生成した記述の事実的正当性を示す自動計量MAFEを提案する。
論文 参考訳(メタデータ) (2022-12-04T23:59:41Z) - The Harvard USPTO Patent Dataset: A Large-Scale, Well-Structured, and
Multi-Purpose Corpus of Patent Applications [8.110699646062384]
ハーバードUSPTO特許データセット(HUPD)について紹介する。
450万件以上の特許文書があり、HUPDは同等のコーパスの2倍から3倍の大きさだ。
各アプリケーションのメタデータとすべてのテキストフィールドを提供することで、このデータセットは研究者が新しいNLPタスクセットを実行することを可能にする。
論文 参考訳(メタデータ) (2022-07-08T17:57:15Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Rethinking Text Line Recognition Models [57.47147190119394]
2つのデコーダファミリー(コネクショニスト時間分類と変換器)と3つのエンコーダモジュール(双方向LSTM、自己認識、GRCL)を考える。
広く使用されているシーンと手書きテキストの公開データセットの精度とパフォーマンスを比較します。
より一般的なTransformerベースのモデルとは異なり、このアーキテクチャは任意の長さの入力を処理できる。
論文 参考訳(メタデータ) (2021-04-15T21:43:13Z) - Mind The Facts: Knowledge-Boosted Coherent Abstractive Text
Summarization [47.47707316595568]
本稿ではトランスフォーマーエンコーダデコーダアーキテクチャを拡張した新しいアーキテクチャを提案する。
Wikidataナレッジグラフからエンティティレベルの知識をエンコーダ・デコーダアーキテクチャに組み込む。
これにより、ソース記事が長い場合でも、コヒーレントな要約を生成するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-27T20:06:15Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。