論文の概要: Classification of Visualization Types and Perspectives in Patents
- arxiv url: http://arxiv.org/abs/2307.10471v1
- Date: Wed, 19 Jul 2023 21:45:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 15:28:07.465175
- Title: Classification of Visualization Types and Perspectives in Patents
- Title(参考訳): 特許の可視化タイプと展望の分類
- Authors: Junaid Ahmed Ghauri, Eric M\"uller-Budack, Ralph Ewerth
- Abstract要約: 我々は、特許画像の可視化タイプと視点の分類に最先端のディープラーニング手法を採用する。
我々は、画像の観点から弱いラベル付きデータを提供するデータセットから、階層的な一連のクラスを導出する。
- 参考スコア(独自算出の注目度): 9.123089032348311
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Due to the swift growth of patent applications each year, information and
multimedia retrieval approaches that facilitate patent exploration and
retrieval are of utmost importance. Different types of visualizations (e.g.,
graphs, technical drawings) and perspectives (e.g., side view, perspective) are
used to visualize details of innovations in patents. The classification of
these images enables a more efficient search and allows for further analysis.
So far, datasets for image type classification miss some important
visualization types for patents. Furthermore, related work does not make use of
recent deep learning approaches including transformers. In this paper, we adopt
state-of-the-art deep learning methods for the classification of visualization
types and perspectives in patent images. We extend the CLEF-IP dataset for
image type classification in patents to ten classes and provide manual ground
truth annotations. In addition, we derive a set of hierarchical classes from a
dataset that provides weakly-labeled data for image perspectives. Experimental
results have demonstrated the feasibility of the proposed approaches. Source
code, models, and dataset will be made publicly available.
- Abstract(参考訳): 毎年、特許出願が急速に伸びているため、特許の探索と検索を容易にする情報とマルチメディア検索アプローチが最も重要である。
異なる種類の可視化(グラフ、技術的な図面など)と視点(サイドビュー、パースペクティブなど)は、特許におけるイノベーションの詳細を視覚化するために使用される。
これらの画像の分類はより効率的な探索を可能にし、さらなる解析を可能にする。
今のところ、画像タイプの分類のためのデータセットは、特許のための重要な視覚化タイプを見逃している。
さらに、関連する研究は、トランスフォーマーを含む最近のディープラーニングアプローチを利用しない。
本稿では,特許画像における可視化型と視点の分類に最先端のディープラーニング手法を適用する。
特許のイメージタイプ分類のためのCLEF-IPデータセットを10クラスに拡張し,手動の地上真実アノテーションを提供する。
さらに,画像パースペクティブに対して弱ラベルデータを提供するデータセットから階層クラスの集合を導出する。
実験の結果,提案手法の有効性が示された。
ソースコード、モデル、データセットは公開される予定だ。
関連論文リスト
- Large Language Model Informed Patent Image Retrieval [0.0]
本稿では,特許画像特徴学習のための言語インフォームドな分散型マルチモーダルアプローチを提案する。
提案手法は, mAP +53.3%, Recall@10 +41.8%, MRR@10 +51.9%による画像に基づく特許検索において, 最先端ないし同等の性能を実現する。
論文 参考訳(メタデータ) (2024-04-30T08:45:16Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Event-based Dynamic Graph Representation Learning for Patent Application
Trend Prediction [45.0907126466271]
本稿では,特許出願傾向予測のためのイベントベースのグラフ学習フレームワークを提案する。
特に,当社の手法は,企業および特許分類コードの両方の記憶可能な表現に基づいて構築されている。
論文 参考訳(メタデータ) (2023-08-04T05:43:32Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - SgVA-CLIP: Semantic-guided Visual Adapting of Vision-Language Models for
Few-shot Image Classification [84.05253637260743]
本稿では,セマンティック誘導視覚適応(SgVA)と呼ばれる新しいフレームワークを提案する。
SgVAは、視覚特異的のコントラスト損失、クロスモーダルのコントラスト損失、暗黙の知識蒸留を包括的に利用することで、識別的なタスク固有の視覚特徴を生成する。
13のデータセットの最先端の結果は、適応された視覚的特徴が、クロスモーダルな特徴を補完し、少数の画像分類を改善することを実証している。
論文 参考訳(メタデータ) (2022-11-28T14:58:15Z) - Facing the Void: Overcoming Missing Data in Multi-View Imagery [0.783788180051711]
本稿では,この問題に頑健な多視点画像分類のための新しい手法を提案する。
提案手法は,最先端の深層学習とメートル法学習に基づいて,他のアプリケーションやドメインに容易に適応し,活用することができる。
その結果,提案アルゴリズムは,最先端手法と比較して,多視点画像分類精度の向上を図っている。
論文 参考訳(メタデータ) (2022-05-21T13:21:27Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - A Step Toward More Inclusive People Annotations for Fairness [38.546190750434945]
我々は、MIAPサブセットと呼ばれるOpen Imagesデータセットのサブセットに新しいアノテーションセットを提示する。
MIAPサブセットの属性とラベル付け手法は、モデルフェアネスの研究を可能にするように設計された。
論文 参考訳(メタデータ) (2021-05-05T20:44:56Z) - Saliency-driven Class Impressions for Feature Visualization of Deep
Neural Networks [55.11806035788036]
分類に欠かせないと思われる特徴を視覚化することは有利である。
既存の可視化手法は,背景特徴と前景特徴の両方からなる高信頼画像を生成する。
本研究では,あるタスクにおいて最も重要であると考えられる識別的特徴を可視化するための,サリエンシ駆動型アプローチを提案する。
論文 参考訳(メタデータ) (2020-07-31T06:11:06Z) - A Convolutional Neural Network-based Patent Image Retrieval Method for
Design Ideation [5.195924252155368]
畳み込みニューラルネットワーク(CNN)を用いた特許画像検索手法を提案する。
このアプローチの中核は、Dual-VGGと呼ばれる新しいニューラルネットワークアーキテクチャである。
トレーニングタスクと特許画像埋め込み空間の精度を評価し,本モデルの性能を示す。
論文 参考訳(メタデータ) (2020-03-10T13:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。