論文の概要: Personalized Risks and Regulatory Strategies of Large Language Models in Digital Advertising
- arxiv url: http://arxiv.org/abs/2505.04665v1
- Date: Wed, 07 May 2025 04:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.620468
- Title: Personalized Risks and Regulatory Strategies of Large Language Models in Digital Advertising
- Title(参考訳): デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略
- Authors: Haoyang Feng, Yanjun Dai, Yuan Gao,
- Abstract要約: 本稿では,デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略について検討する。
実験の結果,BERTベースの広告プッシュは,広告のクリックスルー率と変換率を効果的に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 5.250286096386298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although large language models have demonstrated the potential for personalized advertising recommendations in experimental environments, in actual operations, how advertising recommendation systems can be combined with measures such as user privacy protection and data security is still an area worthy of in-depth discussion. To this end, this paper studies the personalized risks and regulatory strategies of large language models in digital advertising. This study first outlines the principles of Large Language Model (LLM), especially the self-attention mechanism based on the Transformer architecture, and how to enable the model to understand and generate natural language text. Then, the BERT (Bidirectional Encoder Representations from Transformers) model and the attention mechanism are combined to construct an algorithmic model for personalized advertising recommendations and user factor risk protection. The specific steps include: data collection and preprocessing, feature selection and construction, using large language models such as BERT for advertising semantic embedding, and ad recommendations based on user portraits. Then, local model training and data encryption are used to ensure the security of user privacy and avoid the leakage of personal data. This paper designs an experiment for personalized advertising recommendation based on a large language model of BERT and verifies it with real user data. The experimental results show that BERT-based advertising push can effectively improve the click-through rate and conversion rate of advertisements. At the same time, through local model training and privacy protection mechanisms, the risk of user privacy leakage can be reduced to a certain extent.
- Abstract(参考訳): 大規模言語モデルは、実験的な環境でパーソナライズされた広告レコメンデーションの可能性を示しているが、実際の運用においては、広告レコメンデーションシステムとユーザのプライバシー保護やデータセキュリティといった措置が、いまだに深い議論に値する領域である。
そこで本研究では,デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略について検討する。
本稿ではまず,Large Language Model(LLM)の原理,特にTransformerアーキテクチャに基づく自己認識機構,および自然言語テキストの理解と生成を可能にする方法について概説する。
そして、BERTモデルとアテンション機構を組み合わせて、パーソナライズされた広告レコメンデーションとユーザファクターリスク保護のためのアルゴリズムモデルを構築する。
データ収集と前処理、特徴の選択と構築、セマンティック埋め込みの広告にBERTのような大きな言語モデルの使用、ユーザポートレートに基づいた広告レコメンデーション。
次に、ローカルモデルトレーニングとデータ暗号化を使用して、ユーザのプライバシのセキュリティを確保し、個人情報の漏洩を回避する。
本稿では,BERTの大規模言語モデルに基づくパーソナライズされた広告推薦実験を設計し,実際のユーザデータで検証する。
実験の結果,BERTベースの広告プッシュは,広告のクリックスルー率と変換率を効果的に向上させることができることがわかった。
同時に、ローカルモデルトレーニングとプライバシ保護機構を通じて、ユーザのプライバシリークのリスクをある程度低減することができる。
関連論文リスト
- Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SoK: Reducing the Vulnerability of Fine-tuned Language Models to
Membership Inference Attacks [1.03590082373586]
我々は,大規模言語モデルのメンバシップ推論攻撃に対する脆弱性について,初めて体系的なレビューを行った。
これらの攻撃に対して最高のプライバシー保護を実現するために、差分プライバシーと低ランク適応器を組み合わせることで、いくつかのトレーニング手法がプライバシーリスクを著しく低減することを発見した。
論文 参考訳(メタデータ) (2024-03-13T12:46:51Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - You Are What You Write: Preserving Privacy in the Era of Large Language
Models [2.3431670397288005]
本稿では,様々な人気モデルを用いて,事前学習された表現に符号化された個人情報の範囲について,実証的研究を行う。
モデルの複雑さ,事前学習に使用するデータ量,およびデータ漏洩との間には,正の相関関係を示す。
論文 参考訳(メタデータ) (2022-04-20T11:12:53Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。