論文の概要: When Ads Become Profiles: Large-Scale Audit of Algorithmic Biases and LLM Profiling Risks
- arxiv url: http://arxiv.org/abs/2509.18874v1
- Date: Tue, 23 Sep 2025 10:10:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.812119
- Title: When Ads Become Profiles: Large-Scale Audit of Algorithmic Biases and LLM Profiling Risks
- Title(参考訳): 広告がプロファイルになるとき:アルゴリズムバイアスとLLMプロファイリングリスクの大規模監査
- Authors: Baiyu Chen, Benjamin Tag, Hao Xue, Daniel Angus, Flora Salim,
- Abstract要約: ソーシャルメディア上での広告ターゲティングの自動化は不透明であり、エクスプロイトのリスクと外部の監視に対する不可視性を生み出している。
これらのリスクを調査するための多段階監査フレームワークを導入する。
891人のオーストラリア人Facebookユーザーに対して、43万5000件以上の広告インプレッションの大規模な監査を行ったところ、アルゴリズムによる偏見が明らかになった。
- 参考スコア(独自算出の注目度): 10.267951162011475
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated ad targeting on social media is opaque, creating risks of exploitation and invisibility to external scrutiny. Users may be steered toward harmful content while independent auditing of these processes remains blocked. Large Language Models (LLMs) raise a new concern: the potential to reverse-engineer sensitive user attributes from exposure alone. We introduce a multi-stage auditing framework to investigate these risks. First, a large-scale audit of over 435,000 ad impressions delivered to 891 Australian Facebook users reveals algorithmic biases, including disproportionate Gambling and Politics ads shown to socioeconomically vulnerable and politically aligned groups. Second, a multimodal LLM can reconstruct users' demographic profiles from ad streams, outperforming census-based baselines and matching or exceeding human performance. Our results provide the first empirical evidence that ad streams constitute rich digital footprints for public AI inference, highlighting urgent privacy risks and the need for content-level auditing and governance.
- Abstract(参考訳): ソーシャルメディア上での広告ターゲティングの自動化は不透明であり、エクスプロイトのリスクと外部の監視に対する不可視性を生み出している。
これらのプロセスの独立した監査がブロックされている間、ユーザは有害なコンテンツに向かって操縦される可能性がある。
大きな言語モデル(LLMs)は、露光だけで機密性の高いユーザー属性をリバースエンジニアリングする可能性という、新たな懸念を提起する。
これらのリスクを調査するための多段階監査フレームワークを導入する。
まず、オーストラリアのFacebookユーザー891人に配信された43万5000件以上の広告インプレッションに関する大規模な監査では、社会経済的に脆弱で政治的に整合したグループに表示されるギャンブリングやポリティクスの広告など、アルゴリズム上の偏見が明らかになった。
第2に、マルチモーダルLLMは、広告ストリームからユーザの人口統計プロファイルを再構築し、国勢調査ベースのベースラインを上回り、マッチングや人的パフォーマンスを超越することができる。
我々の結果は、広告ストリームが公開AI推論のためのリッチなデジタルフットプリントを構成し、緊急のプライバシーリスクとコンテンツレベルの監査とガバナンスの必要性を強調している、最初の実証的な証拠を提供する。
関連論文リスト
- Disclosure Audits for LLM Agents [44.27620230177312]
大規模言語モデルエージェントは、パーソナルアシスタント、カスタマーサービスボット、臨床助手として登場し始めている。
本研究では、これらのリスクを定量化し、監査する会話プライバシのための監査フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-11T20:47:37Z) - Beyond Text: Unveiling Privacy Vulnerabilities in Multi-modal Retrieval-Augmented Generation [17.859942323017133]
MRAGのプライバシーの脆弱性を視覚言語と音声言語にまたがって初めて体系的に分析する。
実験の結果,LMMは検索した内容に類似した出力を直接生成し,センシティブな情報を間接的に公開する記述を生成することができることがわかった。
論文 参考訳(メタデータ) (2025-05-20T05:37:22Z) - Automated Profile Inference with Language Model Agents [67.32226960040514]
自動プロファイル推論(Automatic Profile Inference)と呼ばれる,LLMがオンラインの偽名にもたらす新たな脅威について検討する。
相手は、LDMに対して、疑似プラットフォーム上で公開されているユーザアクティビティから、機密性の高い個人属性を自動的に取り除き、抽出するように指示することができる。
実世界のシナリオにおけるこのような脅威の可能性を評価するために,AutoProfilerという自動プロファイリングフレームワークを導入する。
論文 参考訳(メタデータ) (2025-05-18T13:05:17Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Auditing for Bias in Ad Delivery Using Inferred Demographic Attributes [50.37313459134418]
広告配信のブラックボックス監査において,予測誤差が偏見の監査に与える影響について検討した。
本稿では,広告配信アルゴリズムのスキュー評価において,推測誤差を軽減する手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T18:57:03Z) - Mathematical Framework for Online Social Media Auditing [5.384630221560811]
ソーシャルメディアプラットフォーム(SMP)は、報酬の最大化を目的として、ユーザのフィードを構成するコンテンツを選択する手段として、アルゴリズムフィルタリング(AF)を利用する。
ユーザのフィードに表示されるコンテンツを選択的に選択することは、ユーザの意思決定にある程度、マイナーまたはメジャーの影響を与える可能性がある。
我々は,この枠組みを数学的に定式化し,データ駆動型統計監査手法の構築に利用した。
論文 参考訳(メタデータ) (2022-09-12T19:04:14Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Adverse Media Mining for KYC and ESG Compliance [2.381399746981591]
逆メディアやネガティブニュースのスクリーニングは、そのような非金融的リスクの特定に不可欠である。
本稿では,ユーザのクエリに対する有害メディアのリアルタイム検索とバッチ検索の両方を行う自動化システムを提案する。
高精度で有害なニュースフィルタリングに対する、スケーラブルで機械学習によるアプローチは、4つの視点に基づいています。
論文 参考訳(メタデータ) (2021-10-22T01:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。