論文の概要: PEDANTIC: A Dataset for the Automatic Examination of Definiteness in Patent Claims
- arxiv url: http://arxiv.org/abs/2505.21342v1
- Date: Tue, 27 May 2025 15:34:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.765467
- Title: PEDANTIC: A Dataset for the Automatic Examination of Definiteness in Patent Claims
- Title(参考訳): PEDANTIC:特許請求の確定性の自動検査用データセット
- Authors: Valentin Knappich, Annemarie Friedrich, Anna Hätty, Simon Razniewski,
- Abstract要約: PEDANTIC (underlinePatunderlineent underlineDefiniteness Exunderlinenaunderlinetion underlineCorpus)は、米国特許14k件の新規データセットである。
我々は,オフィスアクション文書をUSPTOから検索する完全自動パイプラインを用いてPEDANTICを構築し,Large Language Models (LLMs) を用いて不確定性の原因を抽出する。
高品質アノテーション生成におけるパイプラインの精度の検証
- 参考スコア(独自算出の注目度): 13.242188189150987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patent claims define the scope of protection for an invention. If there are ambiguities in a claim, it is rejected by the patent office. In the US, this is referred to as indefiniteness (35 U.S.C {\S} 112(b)) and is among the most frequent reasons for patent application rejection. The development of automatic methods for patent definiteness examination has the potential to make patent drafting and examination more efficient, but no annotated dataset has been published to date. We introduce PEDANTIC (\underline{P}at\underline{e}nt \underline{D}efiniteness Ex\underline{a}mi\underline{n}a\underline{ti}on \underline{C}orpus), a novel dataset of 14k US patent claims from patent applications relating to Natural Language Processing (NLP), annotated with reasons for indefiniteness. We construct PEDANTIC using a fully automatic pipeline that retrieves office action documents from the USPTO and uses Large Language Models (LLMs) to extract the reasons for indefiniteness. A human validation study confirms the pipeline's accuracy in generating high-quality annotations. To gain insight beyond binary classification metrics, we implement an LLM-as-Judge evaluation that compares the free-form reasoning of every model-cited reason with every examiner-cited reason. We show that LLM agents based on Qwen 2.5 32B and 72B struggle to outperform logistic regression baselines on definiteness prediction, even though they often correctly identify the underlying reasons. PEDANTIC provides a valuable resource for patent AI researchers, enabling the development of advanced examination models. We will publicly release the dataset and code.
- Abstract(参考訳): 特許請求は,発明の保護の範囲を定義する。
請求項に曖昧性がある場合は,特許庁により拒絶される。
アメリカでは、これは不確定性(35 U.S.C {\S} 112(b))と呼ばれ、特許出願を拒絶する最も多い理由の1つである。
特許確定性検査のための自動手法の開発は、特許の起草と試験をより効率的にする可能性があるが、注釈付きデータセットは発表されていない。
PEDANTIC (\underline{P}at\underline{e}nt \underline{D}efiniteness Ex\underline{a}mi\underline{n}a\underline{ti}on \underline{C}orpus)は、自然言語処理(NLP)に関する特許出願から14万件の特許を請求する新しいデータセットである。
我々は,オフィス行動文書をUSPTOから検索する完全自動パイプラインを用いてPEDANTICを構築し,Large Language Models (LLMs) を用いて不確定性の原因を抽出する。
人間の検証研究は、高品質なアノテーションを生成する際のパイプラインの正確性を確認する。
2値分類の指標を超える洞察を得るため、各モデルに係わる理由のフリーフォーム推論と各試験員が従う理由のフリーフォーム推論を比較検討するLLM-as-Judge評価を実装した。
本研究では,Qwen 2.5 32B と 72B に基づく LLM エージェントが,その原因を正しく特定したとしても,不確定性予測に基づくロジスティック回帰ベースラインの達成に苦慮していることを示す。
PEDANTICは特許AI研究者に貴重なリソースを提供し、高度な検査モデルの開発を可能にする。
データセットとコードを公開します。
関連論文リスト
- Can AI Examine Novelty of Patents?: Novelty Evaluation Based on the Correspondence between Patent Claim and Prior Art [5.655276956391884]
本稿では,特許の新規性を評価するための大規模言語モデル(LLM)の能力を評価することで,新たな課題を提起する。
本研究は,特許試験事例から得られた新規性評価に特化して設計された最初のデータセットについて述べる。
本研究は, 分類モデルが新規性を効果的に評価するのに苦慮する一方で, 生成モデルは合理的な精度で予測を行うことを示した。
論文 参考訳(メタデータ) (2025-02-10T10:09:29Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Patent-CR: A Dataset for Patent Claim Revision [0.0]
本稿では,特許請求書修正作業のために作成された最初のデータセットであるPatent-CRについて述べる。
これには、特許審査官によって拒絶された初期特許出願と、最終認可版の両方が含まれる。
論文 参考訳(メタデータ) (2024-12-03T16:43:42Z) - PatentEdits: Framing Patent Novelty as Textual Entailment [62.8514393375952]
このデータセットには105万例の修正が成功している。
我々は、文章を文単位でラベル付けするアルゴリズムを設計し、これらの編集がいかに大きな言語モデルで予測できるかを確立する。
引用引用文と起草文の文的含意を評価することは,どの発明的主張が変化しないか,あるいは先行技術に関して新規かを予測するのに特に有効であることを示す。
論文 参考訳(メタデータ) (2024-11-20T17:23:40Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - ClaimCompare: A Data Pipeline for Evaluation of Novelty Destroying Patent Pairs [2.60235825984014]
我々は、IRおよびMLモデルのトレーニングに適したラベル付き特許請求データセットを生成するように設計された、新しいデータパイプラインであるCrimCompareを紹介する。
私たちの知る限りでは、ClaymCompareは、特許データセットを破壊する新規性を複数生成できる最初のパイプラインです。
論文 参考訳(メタデータ) (2024-07-16T21:38:45Z) - Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification [48.5140223214582]
深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
論文 参考訳(メタデータ) (2023-10-31T14:11:37Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Evaluating Generative Patent Language Models [1.8275108630751844]
この原稿は、特許ドメインで生成言語モデルを構築することを目的としている。
パースペクティブは、自動補完によって保存できるキーストロークの割合を測定することである。
この写本で構築された最大のモデルは6Bであり、特許領域における最先端の技術である。
論文 参考訳(メタデータ) (2022-06-23T08:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。