論文の概要: A novel illumination condition varied image dataset-Food Vision Dataset
(FVD) for fair and reliable consumer acceptability predictions from food
- arxiv url: http://arxiv.org/abs/2209.06967v1
- Date: Wed, 14 Sep 2022 22:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:53:08.820603
- Title: A novel illumination condition varied image dataset-Food Vision Dataset
(FVD) for fair and reliable consumer acceptability predictions from food
- Title(参考訳): 食品からの消費者受容性予測のための新しい照明条件変化画像データセット-食品ビジョンデータセット(FVD)
- Authors: Swarna Sethu (1), Dongyi Wang (1 and 2) ((1) Department of Biological
& Agricultural engineering, University of Arkansas, Fayetteville, (2)
Department of Food & Science and Department of Biological & Agricultural
engineering, University of Arkansas, Fayetteville)
- Abstract要約: グループは、人間とコンピュータの知覚に対する照明効果を定量化する新しいデータセット、Food Vision dataset(FVD)を提示している。
FVDは3つの異なるパワーで撮影された675の画像と、5日ごとに5つの異なる温度設定で構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in artificial intelligence promote a wide range of computer
vision applications in many different domains. Digital cameras, acting as human
eyes, can perceive fundamental object properties, such as shapes and colors,
and can be further used for conducting high-level tasks, such as image
classification, and object detections. Human perceptions have been widely
recognized as the ground truth for training and evaluating computer vision
models. However, in some cases, humans can be deceived by what they have seen.
Well-functioned human vision relies on stable external lighting while unnatural
illumination would influence human perception of essential characteristics of
goods. To evaluate the illumination effects on human and computer perceptions,
the group presents a novel dataset, the Food Vision Dataset (FVD), to create an
evaluation benchmark to quantify illumination effects, and to push forward
developments of illumination estimation methods for fair and reliable consumer
acceptability prediction from food appearances. FVD consists of 675 images
captured under 3 different power and 5 different temperature settings every
alternate day for five such days.
- Abstract(参考訳): 最近の人工知能の進歩は、様々な領域における幅広いコンピュータビジョン応用を促進する。
人間の目として機能するデジタルカメラは、形状や色などの基本的な物体特性を認識でき、画像分類や物体検出などのハイレベルなタスクの実行にも利用できる。
人間の知覚はコンピュータビジョンモデルの訓練と評価のための基礎的真実として広く認識されている。
しかし、ある場合には、人間が見たものに騙されることもある。
人間の視覚は安定した外部照明に依存し、不自然な照明は商品の本質的な特性に対する人間の認識に影響を与える。
人やコンピュータの知覚に対する照明効果を評価するため、新しいデータセットである食品ビジョンデータセット(FVD)を提示し、照明効果を定量化するための評価ベンチマークを作成し、食品の外観から公正で信頼性の高い消費者受容性予測のための照明推定方法の開発を進める。
FVDは3つの異なるパワーで撮影された675の画像と、5日ごとに異なる温度設定で構成されている。
関連論文リスト
- Relightable Neural Actor with Intrinsic Decomposition and Pose Control [85.89305777719495]
Relightable Neural Actorは、リライト可能なニューラルヒューマンモデルを学習するための、最初のビデオベース手法である。
我々は、ポーズ依存の衣服の変形をモデル化する乾燥密度場を持つアクターの幾何学を表現する。
我々は、新しい人間のポーズに対する最先端のリライティング結果を実証する。
論文 参考訳(メタデータ) (2023-12-18T14:30:13Z) - Q-Instruct: Improving Low-level Visual Abilities for Multi-modality
Foundation Models [81.20804369985376]
我々は,低レベルの視覚に対する多数の人間のフィードバックを収集する大規模主観的実験を行う。
構築された**Q-Pathway**データセットには、18,973イメージに関する58万の詳細な人間のフィードバックが含まれている。
我々は、GPT参加型変換を設計し、これらのフィードバックを多種多様な200K命令応答対に処理する。
論文 参考訳(メタデータ) (2023-11-12T09:10:51Z) - Self-Supervised Visual Representation Learning on Food Images [6.602838826255494]
既存の深層学習手法は、食品画像の人間のアノテーションに基づいて、下流タスクの視覚的表現を学習する。
実生活のほとんどの食品画像はラベルなしで取得され、データアノテーションには多くの時間と人的労力が必要です。
本稿では,食品画像における自己指導型学習手法の実装と分析に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-16T02:31:51Z) - Human Image Generation: A Comprehensive Survey [60.63589576693112]
本稿では,人間の画像生成技術を3つのパラダイム,すなわちデータ駆動手法,知識誘導手法,ハイブリッド手法に分割する。
異なる手法の利点と特徴は、モデルアーキテクチャと入出力要求の観点から要約される。
幅広い応用可能性のために、合成された人間の画像の典型的なダウンストリーム利用、すなわち、個人認識タスクのためのデータ拡張と、ファッション顧客のためのバーチャルトライオンの2つがカバーされている。
論文 参考訳(メタデータ) (2022-12-17T15:19:45Z) - On Human Visual Contrast Sensitivity and Machine Vision Robustness: A
Comparative Study [68.41864523774164]
色の違いがマシンビジョンにどのように影響するかは、まだよく研究されていない。
我々の研究は、視覚認識の人間の色覚と機械の色覚のギャップを埋めようとしている。
カラーコントラストと劣化画像の効果を広範囲に解析するために,新しい枠組みを2次元で考案した。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Improving generalization by mimicking the human visual diet [34.32585612888424]
本稿では,生物学的ビジョンとコンピュータビジョンの一般化ギャップを埋める新たな視点を提案する。
その結果、人間の視覚訓練データ(視覚ダイエット)に変化と文脈的手がかりをユビキタスに組み込むことで、現実の変換への一般化が著しく向上することが示された。
論文 参考訳(メタデータ) (2022-06-15T20:32:24Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。