論文の概要: Personalized Risks and Regulatory Strategies of Large Language Models in Digital Advertising
- arxiv url: http://arxiv.org/abs/2505.04665v1
- Date: Wed, 07 May 2025 04:25:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.620468
- Title: Personalized Risks and Regulatory Strategies of Large Language Models in Digital Advertising
- Title(参考訳): デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略
- Authors: Haoyang Feng, Yanjun Dai, Yuan Gao,
- Abstract要約: 本稿では,デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略について検討する。
実験の結果,BERTベースの広告プッシュは,広告のクリックスルー率と変換率を効果的に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 5.250286096386298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although large language models have demonstrated the potential for personalized advertising recommendations in experimental environments, in actual operations, how advertising recommendation systems can be combined with measures such as user privacy protection and data security is still an area worthy of in-depth discussion. To this end, this paper studies the personalized risks and regulatory strategies of large language models in digital advertising. This study first outlines the principles of Large Language Model (LLM), especially the self-attention mechanism based on the Transformer architecture, and how to enable the model to understand and generate natural language text. Then, the BERT (Bidirectional Encoder Representations from Transformers) model and the attention mechanism are combined to construct an algorithmic model for personalized advertising recommendations and user factor risk protection. The specific steps include: data collection and preprocessing, feature selection and construction, using large language models such as BERT for advertising semantic embedding, and ad recommendations based on user portraits. Then, local model training and data encryption are used to ensure the security of user privacy and avoid the leakage of personal data. This paper designs an experiment for personalized advertising recommendation based on a large language model of BERT and verifies it with real user data. The experimental results show that BERT-based advertising push can effectively improve the click-through rate and conversion rate of advertisements. At the same time, through local model training and privacy protection mechanisms, the risk of user privacy leakage can be reduced to a certain extent.
- Abstract(参考訳): 大規模言語モデルは、実験的な環境でパーソナライズされた広告レコメンデーションの可能性を示しているが、実際の運用においては、広告レコメンデーションシステムとユーザのプライバシー保護やデータセキュリティといった措置が、いまだに深い議論に値する領域である。
そこで本研究では,デジタル広告における大規模言語モデルのパーソナライズされたリスクと規制戦略について検討する。
本稿ではまず,Large Language Model(LLM)の原理,特にTransformerアーキテクチャに基づく自己認識機構,および自然言語テキストの理解と生成を可能にする方法について概説する。
そして、BERTモデルとアテンション機構を組み合わせて、パーソナライズされた広告レコメンデーションとユーザファクターリスク保護のためのアルゴリズムモデルを構築する。
データ収集と前処理、特徴の選択と構築、セマンティック埋め込みの広告にBERTのような大きな言語モデルの使用、ユーザポートレートに基づいた広告レコメンデーション。
次に、ローカルモデルトレーニングとデータ暗号化を使用して、ユーザのプライバシのセキュリティを確保し、個人情報の漏洩を回避する。
本稿では,BERTの大規模言語モデルに基づくパーソナライズされた広告推薦実験を設計し,実際のユーザデータで検証する。
実験の結果,BERTベースの広告プッシュは,広告のクリックスルー率と変換率を効果的に向上させることができることがわかった。
同時に、ローカルモデルトレーニングとプライバシ保護機構を通じて、ユーザのプライバシリークのリスクをある程度低減することができる。
関連論文リスト
- CTR-Driven Advertising Image Generation with Multimodal Large Language Models [53.40005544344148]
本稿では,Click-Through Rate (CTR) を主目的とし,マルチモーダル大言語モデル(MLLM)を用いた広告画像の生成について検討する。
生成した画像のCTRをさらに改善するため、強化学習(RL)を通して事前学習したMLLMを微調整する新たな報酬モデルを提案する。
本手法は,オンラインとオフラインの両方で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-02-05T09:06:02Z) - Towards the Anonymization of the Language Modeling [0.7874708385247352]
本稿では,言語モデル匿名化の問題に対処するために,プライバシ保護言語モデリング手法を提案する。
本稿では,BERT に似た言語モデルを専門化する Masking Language Modeling (MLM) 手法と,GPT に似たモデルを専門とする Causal Language Modeling (CLM) 手法を提案する。
モデル特殊化の際,直接識別子と間接識別子の両方を記憶することを避けることで,マスキングと因果言語モデリングの手法は,高ユーティリティを維持しながら高いプライバシを維持するためのよいトレードオフを提供することを示す。
論文 参考訳(メタデータ) (2025-01-05T00:03:18Z) - On the Privacy Risk of In-context Learning [36.633860818454984]
我々は、プロンプトモデルがプロンプト内で使用されるデータに対して、重大なプライバシーリスクを示すことを示した。
また、トリガーモデルのプライバシリスクが、同じユーティリティレベルで微調整されたモデルを超えることも観察します。
論文 参考訳(メタデータ) (2024-11-15T17:11:42Z) - Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SoK: Reducing the Vulnerability of Fine-tuned Language Models to
Membership Inference Attacks [1.03590082373586]
我々は,大規模言語モデルのメンバシップ推論攻撃に対する脆弱性について,初めて体系的なレビューを行った。
これらの攻撃に対して最高のプライバシー保護を実現するために、差分プライバシーと低ランク適応器を組み合わせることで、いくつかのトレーニング手法がプライバシーリスクを著しく低減することを発見した。
論文 参考訳(メタデータ) (2024-03-13T12:46:51Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - You Are What You Write: Preserving Privacy in the Era of Large Language
Models [2.3431670397288005]
本稿では,様々な人気モデルを用いて,事前学習された表現に符号化された個人情報の範囲について,実証的研究を行う。
モデルの複雑さ,事前学習に使用するデータ量,およびデータ漏洩との間には,正の相関関係を示す。
論文 参考訳(メタデータ) (2022-04-20T11:12:53Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。