論文の概要: NFT1000: A Cross-Modal Dataset for Non-Fungible Token Retrieval
- arxiv url: http://arxiv.org/abs/2402.16872v2
- Date: Thu, 17 Oct 2024 02:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-17 10:00:36.293283
- Title: NFT1000: A Cross-Modal Dataset for Non-Fungible Token Retrieval
- Title(参考訳): NFT1000:非Fungible Token検索のためのクロスモーダルデータセット
- Authors: Shuxun Wang, Yunfei Lei, Ziqi Zhang, Wei Liu, Haowei Liu, Li Yang, Wenjuan Li, Bing Li, Weiming Hu,
- Abstract要約: 我々は、756万の画像テキストペアを含む「NFT Top1000 Visual-Text」(NFT1000)というベンチマークデータセットを導入する。
このデータセットと、CLIPシリーズの事前学習モデルを活用することにより、動的マスキング微調整方式を提案する。
また、ビジュアルテキストペアデータの類似性と検索難度を評価するために、ロバストなメトリクス包括的変動指標(CVI)を提案する。
- 参考スコア(独自算出の注目度): 38.63307493935328
- License:
- Abstract: With the rise of "Metaverse" and "Web 3.0", Non-Fungible Token (NFT) has emerged as a kind of pivotal digital asset, garnering significant attention. By the end of March 2024, more than 1.7 billion NFTs have been minted across various blockchain platforms. To effectively locate a desired NFT, conducting searches within a vast array of NFTs is essential. The challenge in NFT retrieval is heightened due to the high degree of similarity among different NFTs, regarding regional and semantic aspects. In this paper, we will introduce a benchmark dataset named "NFT Top1000 Visual-Text Dataset" (NFT1000), containing 7.56 million image-text pairs, and being collected from 1000 most famous PFP1 NFT collections2 by sales volume on the Ethereum blockchain. Based on this dataset and leveraging the CLIP series of pre-trained models as our foundation, we propose the dynamic masking fine-tuning scheme. This innovative approach results in a 7.4\% improvement in the top1 accuracy rate, while utilizing merely 13\% of the total training data (0.79 million vs. 6.1 million). We also propose a robust metric Comprehensive Variance Index (CVI) to assess the similarity and retrieval difficulty of visual-text pairs data. The dataset will be released as an open-source resource. For more details, please refer to: https://github.com/ShuxunoO/NFT-Net.git.
- Abstract(参考訳): メタバース」や「Web 3.0」の台頭に伴い、Non-Fungible Token(NFT)はデジタル資産の一種として登場し、大きな注目を集めている。
2024年3月末までに、17億以上のNFTがさまざまなブロックチェーンプラットフォームで鋳造されている。
所望のNFTを効果的に特定するためには、膨大なNFT配列内を探索することが不可欠である。
NFT検索の課題は、地域的・意味的な側面に関して、異なるNFT間の高い類似性によって高められる。
本稿では,756万のイメージテキストペアを含むベンチマークデータセット"NFT Top1000 Visual-Text Dataset"(NFT1000)を紹介し,Ethereumブロックチェーンのセールスボリュームによって,最も有名なPFP1 NFTコレクション2から収集する。
このデータセットをベースとして,CLIPシリーズの事前学習モデルを基盤として,動的マスキング微調整方式を提案する。
この革新的なアプローチにより、トップ1の精度が7.4\%向上し、トレーニングデータ全体の13%(0.79百万対6.10百万)しか利用できない。
また、ビジュアルテキストペアデータの類似性と検索難度を評価するために、ロバストなメトリクス包括的変動指標(CVI)を提案する。
データセットはオープンソースリソースとしてリリースされる予定だ。
詳細はhttps://github.com/ShuxunoO/NFT-Net.gitを参照してください。
関連論文リスト
- InfiMM-WebMath-40B: Advancing Multimodal Pre-Training for Enhanced Mathematical Reasoning [58.7966588457529]
InfiMM-WebMath-40Bは、インターリーブされた画像テキスト文書の高品質なデータセットである。
ウェブページは2400万、画像URLは8500万、テキストトークンは400億だ。
テキストのみのベンチマークでは,400億トークンしか利用していないにもかかわらず,データセットは1.3Bモデルの性能を大幅に向上させることが示された。
私たちのモデルは、MathVerseやWe-Mathといったマルチモーダルな数学ベンチマーク上で、オープンソースモデルの中で新しい最先端のモデルを設定しました。
論文 参考訳(メタデータ) (2024-09-19T08:41:21Z) - MINT-1T: Scaling Open-Source Multimodal Data by 10x: A Multimodal Dataset with One Trillion Tokens [113.9621845919304]
MINT-1Tは最も広く多様なオープンソースMultimodal INTerleavedデータセットです。
MINT-1Tは1兆個のテキストトークンと340億の画像で構成され、既存のオープンソースデータセットの10倍のスケールアップである。
実験の結果,MINT-1TでトレーニングしたLMMは,以前の先行データセット OBELICS でトレーニングしたモデルの性能に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-06-17T07:21:36Z) - What Determines the Price of NFTs? [26.368626684043992]
我々は,OpenSea上のNFTコレクションのオンチェーンデータとオフチェーンデータの両方を分析し,NFT価格にどのような影響があるのかを理解する。
以上の結果から,NFTのテキストデータや画像データはコレクション内の価格変動を説明するのに有用であるが,抽出された特徴は新たな未知のコレクションに一般化されないことがわかった。
論文 参考訳(メタデータ) (2023-10-03T06:09:59Z) - Learning Profitable NFT Image Diffusions via Multiple Visual-Policy
Guided Reinforcement Learning [69.60868581184366]
NFT画像に対する報酬として,複数ビジュアルポリシーを用いた拡散型生成フレームワークを提案する。
提案するフレームワークは,大規模言語モデル (LLM) と拡散型画像生成装置,および設計による視覚的報酬からなる。
我々のフレームワークは、SOTAのアプローチと比較して、より視覚的に魅力的な要素と高い市場価値を示すNFT画像を生成することができる。
論文 参考訳(メタデータ) (2023-06-20T17:59:46Z) - NFTVis: Visual Analysis of NFT Performance [12.491701063977825]
非ファンジブルトークン(英: non-fungible token、NFT)は、ブロックチェーンに格納されるデータユニットである。
現在の希少なモデルは欠陥があり、時には説得力がない。
包括的考察とNFT性能の効率的な分析は困難である。
論文 参考訳(メタデータ) (2023-06-05T09:02:48Z) - Show me your NFT and I tell you how it will perform: Multimodal
representation learning for NFT selling price prediction [2.578242050187029]
非Fungible Tokens(NFT)は、ブロックチェーン技術とスマートコントラクトに基づく、デジタルアートフォーム(アートワークやコレクションブルなど)上のユニークな暗号資産の所有権の行為を表す。
我々は,NFT画像とテキストのコレクション上に,グラフニューラルネットワークモデルとともにトランスフォーマーベースの言語と視覚モデルをトレーニングするために設計された,新しいマルチモーダルディープラーニングフレームワークであるMERLINを提案する。
MERLINの重要な側面は、NFTトレーディングに関心のあるユーザが処理したいプライマリデータのみを利用するため、金融機能に対する独立性である。
論文 参考訳(メタデータ) (2023-02-03T11:56:38Z) - Bubble or Not: Measurements, Analyses, and Findings on the Ethereum
ERC721 and ERC1155 Non-fungible Token Ecosystem [22.010657813215413]
NFTの時価総額は2021年に215億米ドルに達した。
2022年第2四半期のNFT市場の急激な下落は、NFT市場の目に見えるブームに疑問を呈している。
ブロックチェーン全体からデータを収集することにより、NFT生成グラフ、NFT転送グラフ、NFTホールドグラフという3つのグラフを構築し、NFTトレーダーを特徴付ける。
我々は,NFTの活性度と値の定量化のための新しい指標を提案し,インジケータとグラフ解析を組み合わせてバブルNFTを見つけるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-05T10:17:57Z) - Fast-iTPN: Integrally Pre-Trained Transformer Pyramid Network with Token
Migration [138.24994198567794]
ITPNは2つの精巧な設計で生まれ、1)視覚変換器を用いた最初の事前訓練型特徴ピラミッド(ViT)である。
Fast-iTPNは推論手順を最大70%高速化でき、性能損失は無視できる。
論文 参考訳(メタデータ) (2022-11-23T06:56:12Z) - Predicting Non-Fungible Token (NFT) Collections: A Contextual Generative
Approach [8.246077490514848]
非偽造トークン(非偽造トークン、英: Non-fungible tokens、NFT)は、アートや集合体などの現実世界のオブジェクトを表すブロックチェーン上に格納されるデジタル資産である。
本稿では,NFTコレクションの様々な特徴を学習する文脈生成手法を提案する。
新たな鋳造品の潜在的な市場価値予測を生成する。
論文 参考訳(メタデータ) (2022-10-14T12:50:22Z) - Probably Something: A Multi-Layer Taxonomy of Non-Fungible Tokens [62.997667081978825]
非Fungible Tokens(NFT)は、メタバースの重要なビルディングブロックとして売り出されつつある。
本研究の目的は,分類学における共通の特徴を同定し,構造化することで,NFTの基本的かつ包括的理解を確立することである。
論文 参考訳(メタデータ) (2022-08-29T18:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。