論文の概要: Learning Efficient Representations for Image-Based Patent Retrieval
- arxiv url: http://arxiv.org/abs/2308.13749v1
- Date: Sat, 26 Aug 2023 03:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 19:27:02.390089
- Title: Learning Efficient Representations for Image-Based Patent Retrieval
- Title(参考訳): 画像に基づく特許検索のための効率的な表現の学習
- Authors: Hongsong Wang and Yuqi Zhang
- Abstract要約: 本稿では,コンテンツに基づく特許検索のためのシンプルで軽量なモデルを提案する。
当社のアプローチは,大規模なベンチマークにおいて,他の方法よりも大幅に優れています。
我々のモデルは、93.5%という驚くほど高いmAPを達成するために、精巧にスケールアップすることができる。
- 参考スコア(独自算出の注目度): 16.323708969088557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patent retrieval has been attracting tremendous interest from researchers in
intellectual property and information retrieval communities in the past
decades. However, most existing approaches rely on textual and metadata
information of the patent, and content-based image-based patent retrieval is
rarely investigated. Based on traits of patent drawing images, we present a
simple and lightweight model for this task. Without bells and whistles, this
approach significantly outperforms other counterparts on a large-scale
benchmark and noticeably improves the state-of-the-art by 33.5% with the mean
average precision (mAP) score. Further experiments reveal that this model can
be elaborately scaled up to achieve a surprisingly high mAP of 93.5%. Our
method ranks first in the ECCV 2022 Patent Diagram Image Retrieval Challenge.
- Abstract(参考訳): 特許取得は、過去数十年間、知的財産と情報検索コミュニティの研究者から大きな関心を集めてきた。
しかし、既存のアプローチのほとんどは特許のテキスト情報とメタデータ情報に依存しており、コンテンツベースの画像に基づく特許検索が研究されることはほとんどない。
特許出願画像の特徴に基づいて,この課題に対して単純で軽量なモデルを提案する。
ベルとホイッスルがなければ、このアプローチは大規模ベンチマークで他のベンチマークよりも大幅に優れ、平均的精度(mAP)スコアで最先端の33.5%向上する。
さらなる実験により、このモデルは93.5%という驚くほど高いmAPを達成するために精巧にスケールできることが明らかになった。
本手法はECCV 2022 特許図画像検索チャレンジで第1位である。
関連論文リスト
- Large Language Model Informed Patent Image Retrieval [0.0]
本稿では,特許画像特徴学習のための言語インフォームドな分散型マルチモーダルアプローチを提案する。
提案手法は, mAP +53.3%, Recall@10 +41.8%, MRR@10 +51.9%による画像に基づく特許検索において, 最先端ないし同等の性能を実現する。
論文 参考訳(メタデータ) (2024-04-30T08:45:16Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - PaECTER: Patent-level Representation Learning using Citation-informed
Transformers [0.16785092703248325]
PaECTERは、特許に特有のオープンソースドキュメントレベルのエンコーダである。
我々は,特許文書の数値表現を生成するために,受験者による引用情報付き特許用BERTを微調整する。
PaECTERは、特許ドメインで使用されている現在の最先端モデルよりも類似性タスクが優れている。
論文 参考訳(メタデータ) (2024-02-29T18:09:03Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - Classification of Visualization Types and Perspectives in Patents [9.123089032348311]
我々は、特許画像の可視化タイプと視点の分類に最先端のディープラーニング手法を採用する。
我々は、画像の観点から弱いラベル付きデータを提供するデータセットから、階層的な一連のクラスを導出する。
論文 参考訳(メタデータ) (2023-07-19T21:45:07Z) - Towards Artistic Image Aesthetics Assessment: a Large-scale Dataset and
a New Method [64.40494830113286]
まず、Boldbrush Artistic Image dataset (BAID)という大規模なAIAAデータセットを紹介します。
そこで我々は,芸術的イメージを評価するために,スタイル特異的で汎用的な美的情報を効果的に抽出し,活用する新たな手法であるSAANを提案する。
実験により,提案手法は提案したBAIDデータセット上で既存のIAA手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-03-27T12:59:15Z) - Estimating the Performance of Entity Resolution Algorithms: Lessons
Learned Through PatentsView.org [3.8494315501944736]
本稿では,エンティティ・リゾリューション・アルゴリズムのための新しい評価手法を提案する。
これは米国特許商標庁の特許データ調査ツールであるPatentsView.orgによって動機付けられている。
論文 参考訳(メタデータ) (2022-10-03T21:06:35Z) - A Survey on Sentence Embedding Models Performance for Patent Analysis [0.0]
本稿では,PatentSBERTaアプローチに基づく埋め込みモデルの精度を評価するための標準ライブラリとデータセットを提案する。
patentSBERTa, Bert-for-patents, and TF-IDF Weighted Word Embeddings is the most accuracy for computing sentence embeddeds at the subclass level。
論文 参考訳(メタデータ) (2022-04-28T12:04:42Z) - Pixel Distillation: A New Knowledge Distillation Scheme for
Low-Resolution Image Recognition [85.78793763053798]
我々は、高解像度(HR)画像から学習した重いネットワークモデルから、コンパクトなネットワークモデルに有用な知識を抽出する先駆的な試みを行っている。
本稿では,知識蒸留をモデル圧縮段階と高分解能表現伝達段階に分散させるTAS(Teacher-Assistant-Student)フレームワークを提案する。
提案手法では,重度教師モデルと同等の精度で,パラメータがはるかに少なく,推論速度が速く,低解像度の入力が可能な軽量ネットワークモデルを学習することができる。
論文 参考訳(メタデータ) (2021-12-17T14:31:40Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。