論文の概要: A novel illumination condition varied image dataset-Food Vision Dataset
(FVD) for fair and reliable consumer acceptability predictions from food
- arxiv url: http://arxiv.org/abs/2209.06967v1
- Date: Wed, 14 Sep 2022 22:46:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:53:08.820603
- Title: A novel illumination condition varied image dataset-Food Vision Dataset
(FVD) for fair and reliable consumer acceptability predictions from food
- Title(参考訳): 食品からの消費者受容性予測のための新しい照明条件変化画像データセット-食品ビジョンデータセット(FVD)
- Authors: Swarna Sethu (1), Dongyi Wang (1 and 2) ((1) Department of Biological
& Agricultural engineering, University of Arkansas, Fayetteville, (2)
Department of Food & Science and Department of Biological & Agricultural
engineering, University of Arkansas, Fayetteville)
- Abstract要約: グループは、人間とコンピュータの知覚に対する照明効果を定量化する新しいデータセット、Food Vision dataset(FVD)を提示している。
FVDは3つの異なるパワーで撮影された675の画像と、5日ごとに5つの異なる温度設定で構成されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in artificial intelligence promote a wide range of computer
vision applications in many different domains. Digital cameras, acting as human
eyes, can perceive fundamental object properties, such as shapes and colors,
and can be further used for conducting high-level tasks, such as image
classification, and object detections. Human perceptions have been widely
recognized as the ground truth for training and evaluating computer vision
models. However, in some cases, humans can be deceived by what they have seen.
Well-functioned human vision relies on stable external lighting while unnatural
illumination would influence human perception of essential characteristics of
goods. To evaluate the illumination effects on human and computer perceptions,
the group presents a novel dataset, the Food Vision Dataset (FVD), to create an
evaluation benchmark to quantify illumination effects, and to push forward
developments of illumination estimation methods for fair and reliable consumer
acceptability prediction from food appearances. FVD consists of 675 images
captured under 3 different power and 5 different temperature settings every
alternate day for five such days.
- Abstract(参考訳): 最近の人工知能の進歩は、様々な領域における幅広いコンピュータビジョン応用を促進する。
人間の目として機能するデジタルカメラは、形状や色などの基本的な物体特性を認識でき、画像分類や物体検出などのハイレベルなタスクの実行にも利用できる。
人間の知覚はコンピュータビジョンモデルの訓練と評価のための基礎的真実として広く認識されている。
しかし、ある場合には、人間が見たものに騙されることもある。
人間の視覚は安定した外部照明に依存し、不自然な照明は商品の本質的な特性に対する人間の認識に影響を与える。
人やコンピュータの知覚に対する照明効果を評価するため、新しいデータセットである食品ビジョンデータセット(FVD)を提示し、照明効果を定量化するための評価ベンチマークを作成し、食品の外観から公正で信頼性の高い消費者受容性予測のための照明推定方法の開発を進める。
FVDは3つの異なるパワーで撮影された675の画像と、5日ごとに異なる温度設定で構成されている。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - Estimating the distribution of numerosity and non-numerical visual magnitudes in natural scenes using computer vision [0.08192907805418582]
自然の視覚的な場面では、異なる数列の出現頻度は、電力法分布に従うことを示す。
本研究では, 連続度と数値の相関構造が, データセット, シーンタイプ間で安定であることを示す。
論文 参考訳(メタデータ) (2024-09-17T09:49:29Z) - Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - BEHAVIOR Vision Suite: Customizable Dataset Generation via Simulation [57.40024206484446]
我々は、コンピュータビジョンモデルの体系的評価のために、完全にカスタマイズされた合成データを生成するためのツールと資産のセットであるBEHAVIOR Vision Suite(BVS)を紹介する。
BVSはシーンレベルで多数の調整可能なパラメータをサポートする。
アプリケーションシナリオを3つ紹介する。
論文 参考訳(メタデータ) (2024-05-15T17:57:56Z) - Relightable Neural Actor with Intrinsic Decomposition and Pose Control [80.06094206522668]
提案するRelightable Neural Actorは、ポーズ駆動型ニューラルヒューマンモデルを学ぶための新しいビデオベース手法である。
トレーニングのためには、既知のが静的な照明条件下での人間のマルチビュー記録のみを必要とする。
実世界のシナリオにおける我々のアプローチを評価するため、屋内と屋外の異なる光条件下で記録された4つのアイデンティティを持つ新しいデータセットを収集した。
論文 参考訳(メタデータ) (2023-12-18T14:30:13Z) - Self-Supervised Visual Representation Learning on Food Images [6.602838826255494]
既存の深層学習手法は、食品画像の人間のアノテーションに基づいて、下流タスクの視覚的表現を学習する。
実生活のほとんどの食品画像はラベルなしで取得され、データアノテーションには多くの時間と人的労力が必要です。
本稿では,食品画像における自己指導型学習手法の実装と分析に焦点をあてる。
論文 参考訳(メタデータ) (2023-03-16T02:31:51Z) - ColorSense: A Study on Color Vision in Machine Visual Recognition [57.916512479603064]
視覚認識ベンチマークから,前景や背景色ラベルの非自明なアノテーション110,000点を収集する。
色識別のレベルがマシン認識モデルの性能に与える影響を実証することにより、データセットの使用を検証した。
その結果,分類や局所化などの物体認識タスクは,色覚バイアスの影響を受けやすいことが示唆された。
論文 参考訳(メタデータ) (2022-12-16T18:51:41Z) - Improving generalization by mimicking the human visual diet [34.32585612888424]
本稿では,生物学的ビジョンとコンピュータビジョンの一般化ギャップを埋める新たな視点を提案する。
その結果、人間の視覚訓練データ(視覚ダイエット)に変化と文脈的手がかりをユビキタスに組み込むことで、現実の変換への一般化が著しく向上することが示された。
論文 参考訳(メタデータ) (2022-06-15T20:32:24Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。