論文の概要: PatentTransformer-2: Controlling Patent Text Generation by Structural
Metadata
- arxiv url: http://arxiv.org/abs/2001.03708v1
- Date: Sat, 11 Jan 2020 03:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 09:36:05.903661
- Title: PatentTransformer-2: Controlling Patent Text Generation by Structural
Metadata
- Title(参考訳): Patent Transformer-2: 構造メタデータによる特許文書生成制御
- Authors: Jieh-Sheng Lee and Jieh Hsiang
- Abstract要約: PatentTransformerは、Transformerベースのモデルに基づく特許テキスト生成のためのコードネームです。
この第2バージョンでは、特許における構造メタデータをより活用しています。
我々は、スクラッチからトレーニングされたGPT-2モデルと推論のためのコードをリリースし、読者が自分で特許文書を検証して生成できるようにした。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PatentTransformer is our codename for patent text generation based on
Transformer-based models. Our goal is "Augmented Inventing." In this second
version, we leverage more of the structural metadata in patents. The structural
metadata includes patent title, abstract, and dependent claim, in addition to
independent claim previously. Metadata controls what kind of patent text for
the model to generate. Also, we leverage the relation between metadata to build
a text-to-text generation flow, for example, from a few words to a title, the
title to an abstract, the abstract to an independent claim, and the independent
claim to multiple dependent claims. The text flow can go backward because the
relation is trained bidirectionally. We release our GPT-2 models trained from
scratch and our code for inference so that readers can verify and generate
patent text on their own. As for generation quality, we measure it by both
ROUGE and Google Universal Sentence Encoder.
- Abstract(参考訳): PatentTransformerは、Transformerベースのモデルに基づく特許テキスト生成のためのコードネームです。
目標は"Augmented Inventing"です。
この第2バージョンでは、特許における構造メタデータをより活用しています。
構造メタデータは、以前に独立したクレームに加えて、特許権、抽象権、従属権を含む。
メタデータは、モデルが生成する特許テキストの種類を制御する。
また、メタデータ間の関係を利用してテキストからテキストへの生成フローを構築する。例えば、数語からタイトル、タイトルから抽象語への変換、独立したクレームへの抽象化、複数の依存クレームへの独立クレームなどである。
関係が双方向に訓練されているため、テキストフローは後方に進むことができる。
我々は、スクラッチからトレーニングされたGPT-2モデルと推論のためのコードをリリースし、読者が自分で特許文書を検証して生成できるようにした。
世代品質については、rougeとgoogle universal sentence encodingrの両方で測定します。
関連論文リスト
- PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - Automated patent extraction powers generative modeling in focused
chemical spaces [0.0]
深い生成モデルが逆分子設計のエキサイティングな道として登場した。
材料科学と化学への適用性における重要な課題の1つは、プロパティラベル付きでスケール可能なトレーニングデータセットにアクセスできないことである。
我々は、特許のデジタルファイルから、人間の介入を最小限に抑えた新しい候補を生み出すための自動パイプラインを開発する。
論文 参考訳(メタデータ) (2023-03-14T23:26:55Z) - Grounded Keys-to-Text Generation: Towards Factual Open-Ended Generation [92.1582872870226]
そこで我々は,新しい接地型キー・ツー・テキスト生成タスクを提案する。
タスクは、ガイドキーと接地パスのセットが与えられたエンティティに関する事実記述を生成することである。
近年のQAに基づく評価手法に着想を得て,生成した記述の事実的正当性を示す自動計量MAFEを提案する。
論文 参考訳(メタデータ) (2022-12-04T23:59:41Z) - The Harvard USPTO Patent Dataset: A Large-Scale, Well-Structured, and
Multi-Purpose Corpus of Patent Applications [8.110699646062384]
ハーバードUSPTO特許データセット(HUPD)について紹介する。
450万件以上の特許文書があり、HUPDは同等のコーパスの2倍から3倍の大きさだ。
各アプリケーションのメタデータとすべてのテキストフィールドを提供することで、このデータセットは研究者が新しいNLPタスクセットを実行することを可能にする。
論文 参考訳(メタデータ) (2022-07-08T17:57:15Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Rethinking Text Line Recognition Models [57.47147190119394]
2つのデコーダファミリー(コネクショニスト時間分類と変換器)と3つのエンコーダモジュール(双方向LSTM、自己認識、GRCL)を考える。
広く使用されているシーンと手書きテキストの公開データセットの精度とパフォーマンスを比較します。
より一般的なTransformerベースのモデルとは異なり、このアーキテクチャは任意の長さの入力を処理できる。
論文 参考訳(メタデータ) (2021-04-15T21:43:13Z) - Prior Art Search and Reranking for Generated Patent Text [1.8275108630751844]
我々は、その出力に基づいて、GPTモデルに最もよく似た入力を振り返りに識別するリグレードシステムを実装した。
我々の知る限り、この研究は初めて、その出力に基づいてGPTモデルに最もよく似た入力を振り返りに識別するリグレードシステムを実装する。
論文 参考訳(メタデータ) (2020-09-19T01:16:18Z) - Mind The Facts: Knowledge-Boosted Coherent Abstractive Text
Summarization [47.47707316595568]
本稿ではトランスフォーマーエンコーダデコーダアーキテクチャを拡張した新しいアーキテクチャを提案する。
Wikidataナレッジグラフからエンティティレベルの知識をエンコーダ・デコーダアーキテクチャに組み込む。
これにより、ソース記事が長い場合でも、コヒーレントな要約を生成するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-27T20:06:15Z) - Commonsense Evidence Generation and Injection in Reading Comprehension [57.31927095547153]
本稿では,CEGI と命名された理解を読み取るためのコモンセンス・エビデンス・ジェネレーション・インジェクション・フレームワークを提案する。
この枠組みは、2種類の補助的コモンセンス証拠を包括的読解に注入し、機械に合理的思考能力を持たせる。
CosmosQAデータセットの実験では、提案されたCEGIモデルが現在の最先端アプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-05-11T16:31:08Z) - Towards Faithful Neural Table-to-Text Generation with Content-Matching
Constraints [63.84063384518667]
そこで本研究では,トランスフォーマーをベースとした新たな生成フレームワークを提案する。
忠実度を強制する手法の中核となる技術は、テーブル-テキストの最適トランスポート・マッチング・ロスである。
忠実度を評価するため,テーブル・ツー・テキスト生成問題に特化した新しい自動尺度を提案する。
論文 参考訳(メタデータ) (2020-05-03T02:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。