論文の概要: ChatGPT-guided Semantics for Zero-shot Learning
- arxiv url: http://arxiv.org/abs/2310.11657v1
- Date: Wed, 18 Oct 2023 02:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 18:19:32.628429
- Title: ChatGPT-guided Semantics for Zero-shot Learning
- Title(参考訳): ゼロショット学習のためのChatGPT-Guided Semantics
- Authors: Fahimul Hoque Shubho, Townim Faisal Chowdhury, Ali Cheraghian, Morteza
Saberi, Nabeel Mohammed, Shafin Rahman
- Abstract要約: Zero-shot Learning (ZSL) は、トレーニング中に観察されていないオブジェクトを分類することを目的としている。
既存のクラスセマンティクスを取得する方法には、手動属性や言語モデルからの自動単語ベクトルが含まれる。
ChatGPTは、関連する属性とセマンティクスを含む各クラスのテキスト記述を取得するのに役立つソースになる。
- 参考スコア(独自算出の注目度): 10.888525251371606
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot learning (ZSL) aims to classify objects that are not observed or
seen during training. It relies on class semantic description to transfer
knowledge from the seen classes to the unseen classes. Existing methods of
obtaining class semantics include manual attributes or automatic word vectors
from language models (like word2vec). We know attribute annotation is costly,
whereas automatic word-vectors are relatively noisy. To address this problem,
we explore how ChatGPT, a large language model, can enhance class semantics for
ZSL tasks. ChatGPT can be a helpful source to obtain text descriptions for each
class containing related attributes and semantics. We use the word2vec model to
get a word vector using the texts from ChatGPT. Then, we enrich word vectors by
combining the word embeddings from class names and descriptions generated by
ChatGPT. More specifically, we leverage ChatGPT to provide extra supervision
for the class description, eventually benefiting ZSL models. We evaluate our
approach on various 2D image (CUB and AwA) and 3D point cloud (ModelNet10,
ModelNet40, and ScanObjectNN) datasets and show that it improves ZSL
performance. Our work contributes to the ZSL literature by applying ChatGPT for
class semantics enhancement and proposing a novel word vector fusion method.
- Abstract(参考訳): Zero-shot Learning (ZSL) は、トレーニング中に観察されていないオブジェクトを分類することを目的としている。
参照されるクラスから未知のクラスへの知識の転送には、クラスの意味記述に依存する。
クラスセマンティクスを取得する既存の方法には、言語モデル(word2vecなど)からの手動属性や自動単語ベクトルが含まれる。
属性アノテーションはコストがかかるが、自動語ベクトルは比較的ノイズが多い。
この問題に対処するために,大規模な言語モデルであるChatGPTを用いて,ZSLタスクのクラスセマンティクスを強化する方法について検討する。
ChatGPTは、関連する属性とセマンティクスを含む各クラスのテキスト記述を取得するのに役立つソースになる。
私たちはword2vecモデルを使用して、chatgptのテキストを使用してワードベクターを取得します。
次に,ChatGPTが生成したクラス名と記述からの単語埋め込みを組み合わせることで,単語ベクトルを豊かにする。
より具体的には、ChatGPTを活用してクラス記述を余分に監視し、最終的にはZSLモデルの恩恵を受ける。
各種2D画像(CUB,AwA)と3Dポイントクラウド(ModelNet10,ModelNet40,ScanObjectNN)のデータセットに対するアプローチを評価し,ZSLの性能向上を示す。
本研究は,クラスセマンティクスの強化にChatGPTを適用し,新しい単語ベクトル融合法を提案することによって,ZSL文献に寄与する。
関連論文リスト
- Progressive Semantic-Guided Vision Transformer for Zero-Shot Learning [56.65891462413187]
ゼロショット学習のためのプログレッシブセマンティック誘導型視覚変換器(ZSLViT)を提案する。
ZSLViTは、まずセマンティック・エンベッドド・トークン・ラーニングを導入し、セマンティック・エンハンスメントを通じて視覚・セマンティック対応を改善する。
そして,視覚的強調のために,意味的無関係な視覚情報を捨てるために,低意味的・視覚的対応型視覚トークンを融合する。
論文 参考訳(メタデータ) (2024-04-11T12:59:38Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - I2DFormer: Learning Image to Document Attention for Zero-Shot Image
Classification [123.90912800376039]
オンラインテキスト文書(例えばウィキペディア)には、オブジェクトクラスに関する豊富な視覚的記述が含まれている。
画像や文書のエンコードを共同で学習するトランスフォーマーベースのZSLフレームワークであるI2DFormerを提案する。
提案手法は,画像領域に文書語を接地可能な高解釈可能な結果をもたらす。
論文 参考訳(メタデータ) (2022-09-21T12:18:31Z) - What Remains of Visual Semantic Embeddings [0.618778092044887]
標準のImageNetベンチマークにおける構造欠陥を回避するため、ZSLタスクにタイレッドイメージネットの分割を導入する。
我々は,ZSLのための統合フレームワークを構築し,コントラスト学習を事前学習とし,セマンティックな情報漏洩を保証している。
我々の研究は、意味推論が決定的なZSL設定上で視覚的セマンティック埋め込みモデルを評価するのに公平である。
論文 参考訳(メタデータ) (2021-07-26T06:55:11Z) - Rich Semantics Improve Few-shot Learning [49.11659525563236]
アノテーションコストを最小限に抑えながら取得できる「クラスレベル」言語記述を用いることで、少ない学習性能を向上できることを示す。
我々は,視覚トークンと意味トークンを関連付けるための前方および後方エンコーディング機構を開発した。
論文 参考訳(メタデータ) (2021-04-26T16:48:27Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - Webly Supervised Semantic Embeddings for Large Scale Zero-Shot Learning [8.472636806304273]
ゼロショット学習(ZSL)は、データセットからクラスの一部に対する視覚的なトレーニングデータがない場合に、画像内のオブジェクト認識を可能にする。
大規模ZSLのための意味クラスプロトタイプ設計の問題に焦点をあてる。
本稿では,写真に付随するノイズの多いテキストメタデータをテキストコレクションとして利用する方法について検討する。
論文 参考訳(メタデータ) (2020-08-06T21:33:44Z) - Generative Adversarial Zero-shot Learning via Knowledge Graphs [32.42721467499858]
本稿では,知識グラフ(KG)にリッチセマンティクスを組み込むことにより,KG-GANという新たな生成ZSL手法を提案する。
具体的には、グラフニューラルネットワークに基づいて、クラスビューと属性ビューの2つのビューからKGをエンコードする。
各ノードに対してよく学習されたセマンティックな埋め込み(視覚圏を表す)を用いて、GANを活用して、目に見えないクラスの魅力的な視覚的特徴を合成する。
論文 参考訳(メタデータ) (2020-04-07T03:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。