論文の概要: Recommending Insurance products by using Users' Sentiments
- arxiv url: http://arxiv.org/abs/2108.06210v1
- Date: Thu, 5 Aug 2021 04:48:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-22 14:39:43.180274
- Title: Recommending Insurance products by using Users' Sentiments
- Title(参考訳): 利用者感を利用した保険商品の推薦
- Authors: Rohan Parasrampuria, Ayan Ghosh, Suchandra Dutta and Dhrubasish Sarkar
- Abstract要約: 本稿では,保険分野におけるレコメンデーションへの感情分析の適用に焦点を当てる。
我々は、与えられたフィードバックラインの極性を分析するために、以下の機械学習モデルを構築した。
私たちのモデルの単純さとキーデータセットの欠如にもかかわらず、結果は極めて論理的でリアルに見えました。
- 参考スコア(独自算出の注目度): 1.781752200298391
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In today's tech-savvy world every industry is trying to formulate methods for
recommending products by combining several techniques and algorithms to form a
pool that would bring forward the most enhanced models for making the
predictions. Building on these lines is our paper focused on the application of
sentiment analysis for recommendation in the insurance domain. We tried
building the following Machine Learning models namely, Logistic Regression,
Multinomial Naive Bayes, and the mighty Random Forest for analyzing the
polarity of a given feedback line given by a customer. Then we used this
polarity along with other attributes like Age, Gender, Locality, Income, and
the list of other products already purchased by our existing customers as input
for our recommendation model. Then we matched the polarity score along with the
user's profiles and generated the list of insurance products to be recommended
in descending order. Despite our model's simplicity and the lack of the key
data sets, the results seemed very logical and realistic. So, by developing the
model with more enhanced methods and with access to better and true data
gathered from an insurance industry may be the sector could be very well
benefitted from the amalgamation of sentiment analysis with a recommendation.
- Abstract(参考訳): 今日のテクノロジーに精通した世界では、あらゆる業界が、いくつかの技術とアルゴリズムを組み合わせて、予測を行うための最も強化されたモデルをもたらすプールを形成することによって、製品を推奨するための方法を定式化しようとしている。
本論文は, 保険分野におけるレコメンデーションへの感情分析の適用に焦点を当てたものである。
我々は,与えられたフィードバックラインの極性を分析するために,ロジスティック回帰,多項ナイーブベイ,強大なランダムフォレストといった機械学習モデルを構築した。
そして、この極性と年齢、性別、地域性、収入、および既存の顧客が既に購入した他の製品のリストを、レコメンデーションモデルのインプットとして使用しました。
次に、利用者のプロファイルと極性スコアを一致させ、下降順に推奨される保険商品のリストを生成した。
私たちのモデルの単純さとキーデータセットの欠如にもかかわらず、結果は極めて論理的で現実的でした。
したがって、より強化された手法と、保険業界から収集されたより良い真のデータにアクセス可能なモデルを開発することで、このセクターは、感情分析の融合とレコメンデーションの恩恵を受けることができる。
関連論文リスト
- Neural Collaborative Filtering Classification Model to Obtain Prediction Reliabilities [0.9749638953163389]
本稿では,評価予測と信頼性の両面から分類に基づくアプローチを提案する。
本稿では,提案したニューラルアーキテクチャを提案するとともに,その推奨結果の品質が,アートベースラインの状況に匹敵するものであることを検証する。
論文 参考訳(メタデータ) (2024-10-22T09:17:05Z) - Cost-Effective Proxy Reward Model Construction with On-Policy and Active Learning [70.22819290458581]
人間のフィードバックによる強化学習(RLHF)は、現在の大規模言語モデルパイプラインにおいて広く採用されているアプローチである。
提案手法では,(1)OODを回避するためのオン・ポリシー・クエリと,(2)プライオリティ・クエリの最も情報性の高いデータを選択するためのアクティブ・ラーニングという2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2024-07-02T10:09:19Z) - Two Is Better Than One: Dual Embeddings for Complementary Product
Recommendations [2.294014185517203]
製品に2つの埋め込み表現を活用することで、補足的項目の発見に新しいアプローチを適用する。
我々のモデルは実装が簡単であり、あらゆるeコマースウェブサイトで補完的なアイテムレコメンデーションを生成するための優れた候補となる。
論文 参考訳(メタデータ) (2022-11-28T00:58:21Z) - Off-policy evaluation for learning-to-rank via interpolating the
item-position model and the position-based model [83.83064559894989]
産業レコメンデーションシステムにとって重要なニーズは、製品にデプロイする前に、レコメンデーションポリシーをオフラインで評価する機能である。
我々は、最も人気のある2つの非政治推定器の問題を緩和する新しい推定器を開発する。
特に、InterPOLと呼ばれる新しい推定器は、潜在的に不特定位置ベースモデルのバイアスに対処する。
論文 参考訳(メタデータ) (2022-10-15T17:22:30Z) - A Recommendation Approach based on Similarity-Popularity Models of
Complex Networks [1.385805101975528]
そこで本研究では,類似性傾向モデルにより生成された複雑なネットワークをベースとした新しい推薦手法を提案する。
まず、観測されたレーティングからユーザとアイテムをノードとして持つネットワークモデルを構築し、そのモデルを用いて未知のレーティングを予測する。
提案手法は, 各種ドメインの21データセットに対して, ベースラインと最先端のレコメンデーション手法に対して, 提案手法を実装, 実験的に比較した。
論文 参考訳(メタデータ) (2022-09-29T11:00:06Z) - Rethinking Missing Data: Aleatoric Uncertainty-Aware Recommendation [59.500347564280204]
本稿では, Aleatoric Uncertainty-aware Recommendation (AUR) フレームワークを提案する。
AURは、新しい不確実性推定器と通常のレコメンデータモデルで構成されている。
誤ラベルの可能性がペアの可能性を反映しているため、AURは不確実性に応じてレコメンデーションを行う。
論文 参考訳(メタデータ) (2022-09-22T04:32:51Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Pessimistic Off-Policy Optimization for Learning to Rank [13.733459243449634]
オフ政治学習は、ポリシーをデプロイせずに最適化するためのフレームワークである。
レコメンデーションシステムでは、ログデータの不均衡のため、これは特に難しい。
我々は、ランク付け学習のための悲観的非政治最適化について研究する。
論文 参考訳(メタデータ) (2022-06-06T12:58:28Z) - Bandit Data-Driven Optimization [62.01362535014316]
機械学習パイプラインが設定で有用になるためには、克服しなければならない大きな問題点が4つある。
これらの問題点に対処する最初の反復予測記述フレームワークであるBanditデータ駆動最適化を導入する。
本稿では,このフレームワークの新しいアルゴリズム PROOF を提案する。
論文 参考訳(メタデータ) (2020-08-26T17:50:49Z) - Adversarial learning for product recommendation [0.0]
本研究は, 共同分布(ビュー, 購入)行動からサンプルを生成することを学習する条件付き, 結合型生成対向ネットワーク(RecommenderGAN)を提案する。
しかし,本モデルが提案する勧告は,消費者やデジタル小売業者に有効である可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-07T23:35:36Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。