論文の概要: Learning to Taste: A Multimodal Wine Dataset
- arxiv url: http://arxiv.org/abs/2308.16900v4
- Date: Mon, 15 Jan 2024 14:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 01:46:23.075870
- Title: Learning to Taste: A Multimodal Wine Dataset
- Title(参考訳): 味を学習する:マルチモーダルワインデータセット
- Authors: Thoranna Bender, Simon Moe S{\o}rensen, Alireza Kashani, K. Eldjarn
Hjorleifsson, Grethe Hyldig, S{\o}ren Hauberg, Serge Belongie and Frederik
Warburg
- Abstract要約: We present WineSensed, a large multimodal wine data for study the relationship between visual perception, language, and flavor。
データセットには、ワインラベルの897kの画像と、ヴィヴィノ・プラットフォームからキュレートされたワインの824kのレビューが含まれている。
人間の経験と自動機械類似性カーネルを組み合わせた低次元概念埋め込みアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.119970053489524
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present WineSensed, a large multimodal wine dataset for studying the
relations between visual perception, language, and flavor. The dataset
encompasses 897k images of wine labels and 824k reviews of wines curated from
the Vivino platform. It has over 350k unique bottlings, annotated with year,
region, rating, alcohol percentage, price, and grape composition. We obtained
fine-grained flavor annotations on a subset by conducting a wine-tasting
experiment with 256 participants who were asked to rank wines based on their
similarity in flavor, resulting in more than 5k pairwise flavor distances. We
propose a low-dimensional concept embedding algorithm that combines human
experience with automatic machine similarity kernels. We demonstrate that this
shared concept embedding space improves upon separate embedding spaces for
coarse flavor classification (alcohol percentage, country, grape, price,
rating) and aligns with the intricate human perception of flavor.
- Abstract(参考訳): 我々は,視覚知覚,言語,風味の関係を研究するための大規模マルチモーダルワインデータセットである winesensed を提案する。
データセットには、ワインラベルの897k画像と、ヴィヴィノプラットフォームから収集されたワインの824kレビューが含まれている。
年間、地域、格付け、アルコール度数、価格、ブドウの組成でアノテートされた350k以上のユニークなボツリングがある。
味覚の類似性に基づいてワインのランク付けを依頼された256人の被験者を対象に, ワイン味覚実験を行い, 5k以上の香味距離が得られた。
人間の経験と自動機械類似性カーネルを組み合わせた低次元概念埋め込みアルゴリズムを提案する。
この共有概念埋め込み空間は,粗いフレーバー分類(アルコールパーセンテージ,国,ブドウ,価格,レーティング)のための別個の埋め込み空間を改良し,複雑なフレーバーの人間知覚に適合することを示す。
関連論文リスト
- Classification of grapevine varieties using UAV hyperspectral imaging [0.0]
ブドウ品種の分類は、精密ブドウ栽培において関連する表現型課題である。
無人航空機(UAV)は、ハイパースペクトルデータの収集に対して、より効率的で禁止的でないアプローチを提供する。
本研究では,17種類の赤と白のブドウ品種を分類するために,畳み込みニューラルネットワーク(CNN)を提案する。
論文 参考訳(メタデータ) (2024-01-23T15:35:50Z) - Assorted, Archetypal and Annotated Two Million (3A2M) Cooking Recipes
Dataset based on Active Learning [2.40907745415345]
それぞれのカテゴリにラベル付けされた200万の料理レシピのデータセットを新たに提示する。
データセットを構築するために、レシピをRecipeNLGデータセットから収集する。
私たちのデータセットには200万以上のレシピがあり、それぞれが分類され、信頼性スコアが関連付けられています。
論文 参考訳(メタデータ) (2023-03-27T07:53:18Z) - WinoGAViL: Gamified Association Benchmark to Challenge
Vision-and-Language Models [91.92346150646007]
本研究では,視覚・言語関係を収集するオンラインゲームであるWinoGAViLを紹介する。
私たちはこのゲームを使って3.5Kのインスタンスを収集し、それらが人間には直感的だが最先端のAIモデルには挑戦的であることを発見した。
我々の分析とプレイヤーからのフィードバックは、収集された協会が多様な推論スキルを必要とすることを示している。
論文 参考訳(メタデータ) (2022-07-25T23:57:44Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - Knowledge Distillation via the Target-aware Transformer [83.03578375615614]
本稿では,新しい一対一空間マッチング知識蒸留手法を提案する。
具体的には,教師の特徴のそれぞれのピクセルを,生徒の特徴の空間的位置すべてに蒸留する。
我々のアプローチは、様々なコンピュータビジョンベンチマークにおいて最先端の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2022-05-22T10:26:54Z) - Classification of Beer Bottles using Object Detection and Transfer
Learning [0.0]
本稿では,ビールボトルの画像を2段階のアプローチで分類する深層学習モデルを提案する。
挑戦が終わった後、100%の正確さを達成できた。
論文 参考訳(メタデータ) (2022-01-11T05:45:07Z) - Bombus Species Image Classification [0.2351364540155133]
昆虫学者や生態学者などは、フィールドワークや研究で遭遇したバンブルミツバチの種を迅速かつ正確に特定することに苦慮している。
本研究では,移動学習から派生した画像分類システムが,この課題に対処できるかどうかを検討した。
Google Inception、Oxford VGG16、VGG19、Microsoft ResNet 50を使いました。
論文 参考訳(メタデータ) (2020-06-09T21:28:32Z) - The EPIC-KITCHENS Dataset: Collection, Challenges and Baselines [88.47608066382267]
この大規模なデータセットが、32人の参加者によって、彼らのネイティブキッチン環境でどのようにキャプチャされたか、詳しく説明します。
録音は10カ国から4カ国で行われた。
私たちのデータセットは、11.5万フレームからなる55時間のビデオで構成されており、合計39.6Kアクションセグメントと454.2Kオブジェクトバウンディングボックスを密にラベル付けしています。
論文 参考訳(メタデータ) (2020-04-29T21:57:04Z) - Counting of Grapevine Berries in Images via Semantic Segmentation using
Convolutional Neural Networks [5.826324731529213]
本稿では、2つの異なるトレーニングシステムで動作する自動画像解析に基づく客観的フレームワークを提案する。
このフレームワークは、畳み込みニューラルネットワークを使用して、セマンティックセグメンテーションを実行することで、画像内の単一のベリーを検出する。
VSPでは94.0%,SMPHでは85.6%のベリー検出が可能であった。
論文 参考訳(メタデータ) (2020-04-29T08:10:19Z) - Adaptive Semantic-Visual Tree for Hierarchical Embeddings [67.01307058209709]
本稿では,商品カテゴリのアーキテクチャを記述するために,階層型適応型セマンティックビジュアルツリーを提案する。
この木は、異なる意味レベルと同じ意味クラス内の視覚的類似度を同時に評価する。
各レベルにおいて、セマンティック階層に基づいて異なるマージンを設定し、それらを事前情報として組み込んで、きめ細かい機能埋め込みを学習する。
論文 参考訳(メタデータ) (2020-03-08T03:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。