論文の概要: A novel approach to measuring patent claim scope based on probabilities
obtained from (large) language models
- arxiv url: http://arxiv.org/abs/2309.10003v1
- Date: Sun, 17 Sep 2023 16:50:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 18:29:51.600642
- Title: A novel approach to measuring patent claim scope based on probabilities
obtained from (large) language models
- Title(参考訳): 大規模言語モデルから得られた確率に基づく特許請求の範囲測定のための新しいアプローチ
- Authors: S\'ebastien Ragot
- Abstract要約: 本研究は,特許クレームの範囲を,このクレームに含まれる自己情報の相互性として測定することを提案する。
自己情報はそのクレームの発生確率から算出され、その確率は言語モデルに従って算出される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes to measure the scope of a patent claim as the reciprocal
of the self-information contained in this claim. Grounded in information
theory, this approach is based on the assumption that a rare concept is more
informative than a usual concept, inasmuch as it is more surprising. The
self-information is calculated from the probability of occurrence of that
claim, where the probability is calculated in accordance with a language model.
Five language models are considered, ranging from the simplest models (each
word or character is drawn from a uniform distribution) to intermediate models
(using average word or character frequencies), to a large language model
(GPT2). Interestingly, the simplest language models reduce the scope measure to
the reciprocal of the word or character count, a metric already used in
previous works. Application is made to nine series of patent claims directed to
distinct inventions, where the claims in each series have a gradually
decreasing scope. The performance of the language models is then assessed with
respect to several ad hoc tests. The more sophisticated the model, the better
the results. The GPT2 model outperforms models based on word and character
frequencies, which are themselves ahead of models based on word and character
counts.
- Abstract(参考訳): 本研究は,特許クレームの範囲を,このクレームに含まれる自己情報の相互性として測定することを提案する。
情報理論の根底にあるこのアプローチは、稀な概念が通常の概念よりも情報的なものであるという仮定に基づいている。
自己情報はそのクレームの発生確率から算出され、その確率は言語モデルに従って算出される。
最も単純なモデル(各単語または文字が一様分布から引き出される)から中間モデル(平均語または文字の周波数を使用する)から、大きな言語モデル(GPT2)まで、5つの言語モデルが検討されている。
興味深いことに、最も単純な言語モデルは、以前の作品で既に使われている指標である単語や文字の相互数にスコープ測度を還元する。
異なる発明に向けられた9つの特許クレームに適用され、各シリーズのクレームは徐々に範囲を縮小する。
言語モデルの性能は、いくつかのアドホックテストに対して評価される。
モデルが洗練すればするほど、結果は良くなる。
gpt2モデルは、単語と文字の周波数に基づいてモデルを上回る。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - Evaluating Generative Patent Language Models [1.8275108630751844]
この原稿は、特許ドメインで生成言語モデルを構築することを目的としている。
パースペクティブは、自動補完によって保存できるキーストロークの割合を測定することである。
この写本で構築された最大のモデルは6Bであり、特許領域における最先端の技術である。
論文 参考訳(メタデータ) (2022-06-23T08:58:05Z) - Internet-augmented language models through few-shot prompting for
open-domain question answering [6.573232954655063]
私たちは、大規模な言語モデルによって提供されるユニークないくつかのショット機能を活用して、いくつかの課題を克服しています。
Google Searchを使って、ウェブから返された情報に対して言語モデルを条件付けるために、数発のプロンプトを使用します。
ウェブ上で条件付けされた言語モデルは、オープンドメイン質問応答において、類似またはそれ以上のモデルサイズを持つクローズドブックモデルの性能を上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-10T02:24:14Z) - An Application of Pseudo-Log-Likelihoods to Natural Language Scoring [5.382454613390483]
比較的少ないパラメータとトレーニングステップを持つ言語モデルは、最近の大規模なデータセットでそれを上回るパフォーマンスを得ることができる。
二項選択タスクにおける常識推論のための絶対的最先端結果を生成する。
より小さなモデルの堅牢性は、構成性の観点から理解されるべきである。
論文 参考訳(メタデータ) (2022-01-23T22:00:54Z) - XL-WiC: A Multilingual Benchmark for Evaluating Semantic
Contextualization [98.61159823343036]
単語の意味を正確にモデル化する能力を評価するために,Word-in-Context データセット (WiC) を提案する。
我々は、XL-WiCという大規模なマルチ言語ベンチマークを提案し、12の新しい言語でゴールドスタンダードを特徴付けました。
実験結果から、ターゲット言語にタグ付けされたインスタンスが存在しない場合でも、英語データのみにトレーニングされたモデルは、競争力のあるパフォーマンスが得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T15:32:00Z) - Are Some Words Worth More than Others? [3.5598388686985354]
簡単な単語予測タスクの枠組み内での2つの本質的な評価手法を提案する。
提案手法を用いて,広く使用されている大規模英語モデルの評価を行った。
論文 参考訳(メタデータ) (2020-10-12T23:12:11Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。