論文の概要: Detecting Visual Triggers in Cannabis Imagery: A CLIP-Based Multi-Labeling Framework with Local-Global Aggregation
- arxiv url: http://arxiv.org/abs/2412.08648v1
- Date: Fri, 22 Nov 2024 03:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 08:28:48.134703
- Title: Detecting Visual Triggers in Cannabis Imagery: A CLIP-Based Multi-Labeling Framework with Local-Global Aggregation
- Title(参考訳): Cannabis Imageryにおけるビジュアルトリガーの検出: 局所的に凝集するCLIPベースのマルチラベルフレームワーク
- Authors: Linqi Lu, Xianshi Yu, Akhil Perumal Reddy,
- Abstract要約: 本研究では,大麻食用のオンライン議論における視覚的特徴とテキスト的特徴の相互作用について検討した。
私たちはFacebookから42,743枚の画像を分析した(2021年3月1日~8月31日)。
線形回帰分析では,食関連視覚とユーザエンゲージメントスコアとの間に有意な正の相関が認められた。
画像のカラフルさや特定のテキストテーマと負の関連が観察された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study investigates the interplay of visual and textual features in online discussions about cannabis edibles and their impact on user engagement. Leveraging the CLIP model, we analyzed 42,743 images from Facebook (March 1 to August 31, 2021), with a focus on detecting food-related visuals and examining the influence of image attributes such as colorfulness and brightness on user interaction. For textual analysis, we utilized the BART model as a denoising autoencoder to classify ten topics derived from structural topic modeling, exploring their relationship with user engagement. Linear regression analysis identified significant positive correlations between food-related visuals (e.g., fruit, candy, and bakery) and user engagement scores, as well as between engagement and text topics such as cannabis legalization. In contrast, negative associations were observed with image colorfulness and certain textual themes. These findings offer actionable insights for policymakers and regulatory bodies in designing warning labels and marketing regulations to address potential risks associated with recreational cannabis edibles.
- Abstract(参考訳): 本研究では,大麻食用のオンライン議論における視覚的特徴とテキスト的特徴の相互作用とそのユーザエンゲージメントへの影響について検討した。
CLIPモデルを用いて,Facebookの42,743枚の画像(2021年3月1日~8月31日)を分析し,食関連画像の検出と,色彩や明るさなどの画像特性がユーザインタラクションに与える影響について検討した。
テキスト分析では,BARTモデルを用いて,構造的トピックモデリングから派生した10のトピックを分類し,ユーザエンゲージメントとの関係を探索した。
リニア回帰分析では、食品関連視覚(例えば、果物、キャンディー、パン屋)とユーザエンゲージメントスコアと、大麻の合法化などのエンゲージメントとテキストトピックの間に有意な正の相関が認められた。
対照的に、画像のカラフルさと特定のテキストテーマとの負の関連が観察された。
これらの発見は、レクリエーション大麻の食用化に関連する潜在的なリスクに対処するため、警告ラベルやマーケティング規制を設計する政策立案者や規制機関に実用的な洞察を与える。
関連論文リスト
- Towards Context-Aware Emotion Recognition Debiasing from a Causal Demystification Perspective via De-confounded Training [14.450673163785094]
文脈認識感情認識(CAER)は、対象者の感情を認識するための貴重な意味的手がかりを提供する。
現在のアプローチは、コンテキストから知覚的に重要な表現を抽出する洗練された構造を設計することに集中している。
共同設立者を非難するためのCCIM(Contextual Causal Intervention Module)を提案する。
論文 参考訳(メタデータ) (2024-07-06T05:29:02Z) - Evaluating and Analyzing Relationship Hallucinations in Large Vision-Language Models [69.79709804046325]
視覚関係の幻覚を評価するための新しいベンチマークであるR-Benchを紹介する。
R-Benchは、関係の存在に焦点を当てたイメージレベルの質問と、局所的な視覚的理解を評価するインスタンスレベルの質問を特徴としている。
我々は,関係関連性,主観関連性,関係対象性という,幻覚につながる3つの関係共起関係を同定する。
論文 参考訳(メタデータ) (2024-06-24T08:42:42Z) - Decoding the Narratives: Analyzing Personal Drug Experiences Shared on Reddit [1.080878521069079]
本研究は,物質利用経験に関するオンラインユーザ生成テキストを解析するための多レベル多ラベル分類モデルを開発することを目的とする。
注釈付きデータの集合上で様々なマルチラベル分類アルゴリズムを用いて、GPT-4が命令、定義、例によって誘導された場合、他の全てのモデルよりも優れていたことを示す。
論文 参考訳(メタデータ) (2024-06-17T21:56:57Z) - Neural Additive Image Model: Interpretation through Interpolation [0.0]
本稿では,ニューラル加算モデルと拡散オートエンコーダを用いた全体論的モデリング手法を提案する。
本手法は, アブレーション実験において, 複雑な画像効果を正確に同定できることを実証する。
提案モデルの実用性をさらに実証するため,ホスト画像内の特徴的特徴と属性がAirbnbレンタルの価格にどのように影響するかをケーススタディで検討した。
論文 参考訳(メタデータ) (2024-03-06T16:46:07Z) - Visual Commonsense based Heterogeneous Graph Contrastive Learning [79.22206720896664]
視覚的推論タスクをより良く仕上げるための異種グラフコントラスト学習法を提案する。
本手法はプラグイン・アンド・プレイ方式として設計されており,多種多様な代表手法と迅速かつ容易に組み合わせることができる。
論文 参考訳(メタデータ) (2023-11-11T12:01:18Z) - Feature-Suppressed Contrast for Self-Supervised Food Pre-training [22.48308786497061]
ビュー間の相互情報を低減するためにFeaSC(FeaSC)を提案する。
FeaSCはレスポンシブ・アウェア・スキームを使用して、教師なしの方法で健全な特徴をローカライズする。
プラグアンドプレイモジュールとして、提案手法は、BYOLとSimSiamを1.70%$sim$ 6.69%の分類精度で改善する。
論文 参考訳(メタデータ) (2023-08-07T03:27:04Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - Visual Relationship Detection with Visual-Linguistic Knowledge from
Multimodal Representations [103.00383924074585]
視覚的関係検出は、画像内の有能なオブジェクト間の関係を推論することを目的としている。
変換器からの視覚言語表現(RVL-BERT)という新しい手法を提案する。
RVL-BERTは、自己教師付き事前学習を通じて学習した視覚的・言語的常識知識を用いて空間推論を行う。
論文 参考訳(メタデータ) (2020-09-10T16:15:09Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。