論文の概要: IMVB7t: A Multi-Modal Model for Food Preferences based on Artificially Produced Traits
- arxiv url: http://arxiv.org/abs/2412.16807v1
- Date: Sat, 21 Dec 2024 23:55:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:31.501085
- Title: IMVB7t: A Multi-Modal Model for Food Preferences based on Artificially Produced Traits
- Title(参考訳): IMVB7t:人工的に生産された形質に基づく食品嗜好のマルチモーダルモデル
- Authors: Mushfiqur Rahman Abir, Md. Tanzib Hosain, Md. Abdullah-Al-Jubair, M. F. Mridha,
- Abstract要約: 環境画像から属性を抽出するために様々なモデルを用いる。
視覚刺激に反応して食品嗜好のパターンを識別する調査を行った。
特定属性のアマルガメーションに基づいて,料理に対する決定木を用いたレコメンデーションを定式化する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Human behavior and interactions are profoundly influenced by visual stimuli present in their surroundings. This influence extends to various aspects of life, notably food consumption and selection. In our study, we employed various models to extract different attributes from the environmental images. Specifically, we identify five key attributes and employ an ensemble model IMVB7 based on five distinct models for some of their detection resulted 0.85 mark. In addition, we conducted surveys to discern patterns in food preferences in response to visual stimuli. Leveraging the insights gleaned from these surveys, we formulate recommendations using decision tree for dishes based on the amalgamation of identified attributes resulted IMVB7t 0.96 mark. This study serves as a foundational step, paving the way for further exploration of this interdisciplinary domain.
- Abstract(参考訳): 人間の行動と相互作用は、周囲に存在する視覚刺激の影響を強く受けている。
この影響は人生の様々な側面、特に食品の消費と選択にまで及んでいる。
本研究では,環境画像から様々な属性を抽出するために,様々なモデルを用いた。
具体的には、5つの重要な属性を同定し、5つの異なるモデルに基づくアンサンブルモデルIMVB7を用いて検出した。
また,視覚刺激による食品嗜好のパターンを識別する調査を行った。
これらの調査から得られた知見を生かして、特定属性のアマルガメーションに基づいて、決定木を用いた料理の推薦を定式化し、その結果、IMVB7t 0.96マークとした。
この研究は基礎的なステップとして機能し、この学際領域のさらなる探索の道を開く。
関連論文リスト
- Multi-modal Food Recommendation using Clustering and Self-supervised Learning [27.74592587848116]
CLUSSLは,クラスタリングと自己教師型学習を活用する新しい食品レコメンデーションフレームワークである。
CLUSSLは、各モダリティに特有のグラフを離散的/連続的な特徴で定式化し、意味的特徴を構造的表現に変換する。
異なるユニモーダルグラフから導出されるレシピ表現間の独立性を促進するために,自己指導型学習目標を提案する。
論文 参考訳(メタデータ) (2024-06-27T07:45:17Z) - Silkie: Preference Distillation for Large Visual Language Models [56.10697821410489]
本稿では,大型視覚言語モデル(LVLM)の嗜好蒸留について検討する。
まず,AIアノテーションを用いた視覚言語フィードバックデータセットを構築した。
我々は, GPT-4V を用いて, 有用性, 視覚的忠実性, 倫理的考察のアウトプットを評価する。
結果として得られたモデルSilkieは、認知能力と認知能力に関するMMEベンチマークで6.9%と9.5%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2023-12-17T09:44:27Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - AlignDiff: Aligning Diverse Human Preferences via Behavior-Customisable
Diffusion Model [69.12623428463573]
AlignDiffは、人間の好みを定量化し、抽象性をカバーし、拡散計画をガイドする新しいフレームワークである。
ユーザがカスタマイズした動作と正確に一致し、効率的に切り替えることができます。
選好マッチング,スイッチング,カバーにおいて,他のベースラインに比べて優れた性能を示す。
論文 参考訳(メタデータ) (2023-10-03T13:53:08Z) - Adaptive Contextual Perception: How to Generalize to New Backgrounds and
Ambiguous Objects [75.15563723169234]
本研究では,視覚モデルが分布外一般化の文脈をどのように適応的に利用するかを検討する。
1つの設定で優れているモデルは、もう1つの設定で苦労する傾向があります。
生物学的視覚の一般化能力を再現するためには、コンピュータビジョンモデルは背景表現に対して分解対象を持つ必要がある。
論文 参考訳(メタデータ) (2023-06-09T15:29:54Z) - A Notion of Feature Importance by Decorrelation and Detection of Trends
by Random Forest Regression [1.675857332621569]
本稿では,よく研究されたGram-Schmidt decorrelation法に基づく特徴重要度の概念を導入する。
本研究では,ランダムな森林回帰を用いてデータ中の傾向を推定する2つの推定手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T11:01:49Z) - Learning Diversified Feature Representations for Facial Expression
Recognition in the Wild [97.14064057840089]
本稿では,CNN層が抽出した顔表情認識アーキテクチャの特徴を多様化する機構を提案する。
AffectNet,FER+,RAF-DBの3つの顔表情認識実験の結果,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-10-17T19:25:28Z) - Passive attention in artificial neural networks predicts human visual
selectivity [8.50463394182796]
受動的注意法は人間の視覚的選択性の推定と大きく重なることを示す。
認識実験を用いて,これらの相関関係を因果操作で検証した。
この研究は、人間の視覚のモデルとして、主要なANNの生物学的および心理的妥当性を評価するための新しいアプローチに寄与する。
論文 参考訳(メタデータ) (2021-07-14T21:21:48Z) - A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild [0.2216657815393579]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
論文 参考訳(メタデータ) (2020-09-29T09:24:29Z) - Eating Habits Discovery in Egocentric Photo-streams [9.436913961194671]
食事関連行動パターン探索モデルを構築し,日常的に実施されている活動から栄養のルーチンを明らかにする。
このフレームワーク内では、単純だが堅牢で高速な新しい分類パイプラインを提示する。
本稿では,カメラが単独で食べる際の食品関連シーンの識別への応用について述べる。
論文 参考訳(メタデータ) (2020-09-16T12:46:35Z) - FIVES: Feature Interaction Via Edge Search for Large-Scale Tabular Data [106.76845921324704]
本稿では,FIVES (Feature Interaction Via Edge Search) という新しい手法を提案する。
FIVESは、定義された特徴グラフ上のエッジを探すために、インタラクティブな特徴生成のタスクを定式化する。
本稿では,対話的特徴の探索を動機づける理論的証拠を提示する。
論文 参考訳(メタデータ) (2020-07-29T03:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。