論文の概要: A Convolutional Neural Network-based Patent Image Retrieval Method for
Design Ideation
- arxiv url: http://arxiv.org/abs/2003.08741v3
- Date: Tue, 19 May 2020 22:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:49:06.899765
- Title: A Convolutional Neural Network-based Patent Image Retrieval Method for
Design Ideation
- Title(参考訳): 畳み込みニューラルネットワークによる設計思想のための特許画像検索手法
- Authors: Shuo Jiang, Jianxi Luo, Guillermo Ruiz Pava, Jie Hu, Christopher L.
Magee
- Abstract要約: 畳み込みニューラルネットワーク(CNN)を用いた特許画像検索手法を提案する。
このアプローチの中核は、Dual-VGGと呼ばれる新しいニューラルネットワークアーキテクチャである。
トレーニングタスクと特許画像埋め込み空間の精度を評価し,本モデルの性能を示す。
- 参考スコア(独自算出の注目度): 5.195924252155368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The patent database is often used in searches of inspirational stimuli for
innovative design opportunities because of its large size, extensive variety
and rich design information in patent documents. However, most patent mining
research only focuses on textual information and ignores visual information.
Herein, we propose a convolutional neural network (CNN)-based patent image
retrieval method. The core of this approach is a novel neural network
architecture named Dual-VGG that is aimed to accomplish two tasks: visual
material type prediction and international patent classification (IPC) class
label prediction. In turn, the trained neural network provides the deep
features in the image embedding vectors that can be utilized for patent image
retrieval and visual mapping. The accuracy of both training tasks and patent
image embedding space are evaluated to show the performance of our model. This
approach is also illustrated in a case study of robot arm design retrieval.
Compared to traditional keyword-based searching and Google image searching, the
proposed method discovers more useful visual information for engineering
design.
- Abstract(参考訳): 特許データベースは、大きく、多種多様で、特許文書に豊富な設計情報があるため、革新的な設計の機会にインスピレーションを与えるためにしばしば用いられる。
しかし、ほとんどの特許マイニング研究はテキスト情報のみに焦点を当て、視覚情報を無視している。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた特許画像検索手法を提案する。
このアプローチの中核は、ビジュアルマテリアルタイプ予測と国際特許分類(IPC)クラスラベル予測という2つのタスクを達成することを目的とした、Dual-VGGという新しいニューラルネットワークアーキテクチャである。
代わりに、トレーニングされたニューラルネットワークは、特許画像検索と視覚マッピングに使用できる画像埋め込みベクターの深い特徴を提供する。
本モデルの性能を示すために,訓練作業と特許画像埋め込み空間の双方の精度を評価した。
この手法は、ロボットアーム設計検索のケーススタディでも説明されている。
従来のキーワードベース検索やGoogle画像検索と比較して,提案手法は工学設計においてより有用な視覚情報を発見する。
関連論文リスト
- Early screening of potential breakthrough technologies with enhanced interpretability: A patent-specific hierarchical attention network model [4.779196219827507]
本稿では,特許文書から将来的な引用数を予測するための解釈可能な機械学習手法を提案する。
35,376の医薬品特許のケーススタディは、我々のアプローチの有効性を実証している。
提案手法は, ブレークスルー技術を特定する上で, 専門家と機械の協調性を高めることが期待されている。
論文 参考訳(メタデータ) (2024-07-24T02:17:10Z) - Exploring Explainability in Video Action Recognition [5.7782784592048575]
ビデオ行動認識と画像分類はコンピュータビジョンの基本課題である。
Video-TCAVは、ビデオ行動認識モデルの意思決定プロセスにおいて、特定の概念の重要性を定量化することを目的としている。
本稿では,ビデオ-TCAVテストにおいて,映像行動認識に関連する空間的・時間的概念を生成するための機械支援手法を提案する。
論文 参考訳(メタデータ) (2024-04-13T19:34:14Z) - Unveiling Black-boxes: Explainable Deep Learning Models for Patent
Classification [48.5140223214582]
深部不透明ニューラルネットワーク(DNN)を利用した多ラベル特許分類のための最先端手法
レイヤワイド関連伝搬(Layer-wise Relevance propagation, LRP)を導入し, 特許の詳細な分類手法を提案する。
関連性スコアを考慮し、予測された特許クラスに関連する単語を視覚化して説明を生成する。
論文 参考訳(メタデータ) (2023-10-31T14:11:37Z) - Classification of Visualization Types and Perspectives in Patents [9.123089032348311]
我々は、特許画像の可視化タイプと視点の分類に最先端のディープラーニング手法を採用する。
我々は、画像の観点から弱いラベル付きデータを提供するデータセットから、階層的な一連のクラスを導出する。
論文 参考訳(メタデータ) (2023-07-19T21:45:07Z) - Review of Large Vision Models and Visual Prompt Engineering [50.63394642549947]
レビューは、大きな視覚モデルと視覚プロンプトエンジニアリングのためにコンピュータビジョン領域で使用される手法を要約することを目的としている。
本稿では、視覚領域における影響力のある大規模モデルと、これらのモデルに使用される一連のプロンプトエンジニアリング手法を提案する。
論文 参考訳(メタデータ) (2023-07-03T08:48:49Z) - Semantic Prompt for Few-Shot Image Recognition [76.68959583129335]
本稿では,数ショット学習のための新しいセマンティック・プロンプト(SP)手法を提案する。
提案手法は,1ショットの学習精度を平均3.67%向上させることにより,有望な結果が得られる。
論文 参考訳(メタデータ) (2023-03-24T16:32:19Z) - Experimental Design for Multi-Channel Imaging via Task-Driven Feature Selection [2.662628670752034]
本稿では,その設計(画像チャネルのセット)を同時に最適化し,ユーザが特定した画像解析タスクを実行するための機械学習モデルを訓練する実験設計のための新しいパラダイムを提案する。
その結果、従来の実験設計よりも大幅に改善され、新しいパラダイムにおけるアプリケーション固有の方法が2つ、教師付き特徴選択における最先端のアプローチが2つあった。
論文 参考訳(メタデータ) (2022-10-13T10:36:24Z) - Few-Shot Object Detection by Knowledge Distillation Using
Bag-of-Visual-Words Representations [58.48995335728938]
対象検出器の学習を導くための新しい知識蒸留フレームワークを設計する。
まず,視覚単語の代表的な袋を学習するための単語の位置認識モデルを提案する。
次に、2つの異なる特徴空間において、画像が一貫したBoVW表現を持つべきであるという事実に基づいて知識蒸留を行う。
論文 参考訳(メタデータ) (2022-07-25T10:40:40Z) - Generative Design Ideation: A Natural Language Generation Approach [7.807713821263175]
本稿では,人工知能(AI)における最新の事前学習言語モデルの適用により,知識に基づく設計概念の生成的アプローチを検討することを目的とする。
AI生成されたアイデアは、簡潔で理解可能な言語であるだけでなく、制御可能な知識距離を持つ外部知識ソースでターゲット設計を合成することができる。
論文 参考訳(メタデータ) (2022-03-28T08:11:29Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。