論文の概要: Brand Celebrity Matching Model Based on Natural Language Processing
- arxiv url: http://arxiv.org/abs/2208.08887v1
- Date: Thu, 18 Aug 2022 15:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:27:10.986215
- Title: Brand Celebrity Matching Model Based on Natural Language Processing
- Title(参考訳): 自然言語処理に基づくブランドセレブマッチングモデル
- Authors: Heming Yang, Ke Yang, Erhan Zhang
- Abstract要約: 自然言語処理(NLP)技術に基づくブランド有名人マッチングモデル(BCM)を提案する。
提案モデルでは,0.362F1スコアと6.3%の精度で最高のベースラインを達成できた。
- 参考スコア(独自算出の注目度): 6.207833914172548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Celebrity Endorsement is one of the most significant strategies in brand
communication. Nowadays, more and more companies try to build a vivid
characteristic for themselves. Therefore, their brand identity communications
should accord with some characteristics as humans and regulations. However, the
previous works mostly stop by assumptions, instead of proposing a specific way
to perform matching between brands and celebrities. In this paper, we propose a
brand celebrity matching model (BCM) based on Natural Language Processing (NLP)
techniques. Given a brand and a celebrity, we firstly obtain some descriptive
documents of them from the Internet, then summarize these documents, and
finally calculate a matching degree between the brand and the celebrity to
determine whether they are matched. According to the experimental result, our
proposed model outperforms the best baselines with a 0.362 F1 score and 6.3% of
accuracy, which indicates the effectiveness and application value of our model
in the real-world scene. What's more, to our best knowledge, the proposed BCM
model is the first work on using NLP to solve endorsement issues, so it can
provide some novel research ideas and methodologies for the following works.
- Abstract(参考訳): Celebrity Endorsementはブランドコミュニケーションにおける最も重要な戦略のひとつだ。
今日、ますます多くの企業が、自分たちに鮮明な特性を築こうとしている。
そのため、ブランドのアイデンティティー・コミュニケーションは人間や規制などいくつかの特徴と一致すべきである。
しかし、以前の作品は、ブランドとセレブのマッチングを行う特定の方法を提案するのではなく、仮定によって主に停止する。
本稿では,自然言語処理(NLP)技術に基づくブランド有名人マッチングモデル(BCM)を提案する。
ブランドと有名人が与えられたら、まずインターネットから記述された文書を入手し、まずこれらの文書を要約し、最終的にブランドと有名人の一致度を計算し、一致するかどうかを判断する。
実験結果から,提案モデルが0.362F1スコアと6.3%の精度で最高のベースラインを達成し,実世界のシーンにおけるモデルの有効性と適用価値を示した。
さらに、私たちの知る限りでは、提案されたBCMモデルは、NLPを使用して支持問題を解決するための最初の取り組みであり、新しい研究のアイデアと方法論を次の作品に提供できます。
関連論文リスト
- Quantifying Divergence for Human-AI Collaboration and Cognitive Trust [1.804922416527064]
本稿では,分散度に基づく意思決定類似度尺度を提案する。
我々は,テキスト・エンタテインメント・タスクについてユーザ・リサーチを行う。
ユーザは、最も類似したモデルと類似点や差が示され、コラボレーションの可能性について調査される。
論文 参考訳(メタデータ) (2023-12-14T08:08:19Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - The False Promise of Imitating Proprietary LLMs [158.65692029352584]
より弱い言語モデルを安価に改善するための新しい方法は、より強力なモデルからの出力に対してそれを微調整することである。
このアプローチは、より弱いオープンソースモデルを使用して、プロプライエタリなモデルの機能を安価に模倣することを目指している。
まず、様々なベースモデルサイズを用いてChatGPTを模倣する一連のLMを微調整する。
次に、群衆レーダと標準NLPベンチマークを用いてモデルを評価する。
論文 参考訳(メタデータ) (2023-05-25T05:00:12Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Training Language Models with Natural Language Feedback [51.36137482891037]
3段階学習アルゴリズムを用いてモデル出力の言語フィードバックから学習する。
合成実験において、まず言語モデルがフィードバックを正確に組み込んで改良を行うかどうかを評価する。
人間の手書きフィードバックのサンプルは100程度しかなく, 学習アルゴリズムはGPT-3モデルを微調整し, ほぼ人間レベルの要約を行う。
論文 参考訳(メタデータ) (2022-04-29T15:06:58Z) - Product Market Demand Analysis Using NLP in Banglish Text with Sentiment
Analysis and Named Entity Recognition [0.0]
ベンガル語話者は約2億2800万人。
消費者はBanglishのテキストでソーシャルメディア上でアイテムを購入し、評価しています。
人々はソーシャルメディアを使って、好みのスマートフォンブランドやモデルを見つけます。
論文 参考訳(メタデータ) (2022-04-04T20:21:31Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - HeBERT & HebEMO: a Hebrew BERT Model and a Tool for Polarity Analysis
and Emotion Recognition [0.30458514384586394]
HeBERTは現代ヘブライ語テキストのトランスフォーマーベースのモデルである。
HebEMOはHeBERTを使って極性を検出し、Hebrewのユーザ生成コンテンツから感情を抽出するツールだ。
論文 参考訳(メタデータ) (2021-02-03T06:59:59Z) - Off-Line Arabic Handwritten Words Segmentation using Morphological
Operators [0.0]
このフレームワークは、前処理、セグメンテーション、評価の3つのステップに基づいて提案される。
提案モデルは、関連作品と比較して最高精度を達成しました。
論文 参考訳(メタデータ) (2021-01-07T23:38:53Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。