論文の概要: Evaluating LLM-Generated Legal Explanations for Regulatory Compliance in Social Media Influencer Marketing
- arxiv url: http://arxiv.org/abs/2510.08111v1
- Date: Thu, 09 Oct 2025 11:50:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.048671
- Title: Evaluating LLM-Generated Legal Explanations for Regulatory Compliance in Social Media Influencer Marketing
- Title(参考訳): ソーシャルメディアインフルエンサーマーケティングにおける規制コンプライアンスのためのLCM法則の評価
- Authors: Haoyang Gui, Thales Bertaglia, Taylor Annabell, Catalina Goanta, Tjomme Dooper, Gerasimos Spanakis,
- Abstract要約: 本稿では, 自動モデレーションが正確かつ法的に堅牢であるかどうかを評価するために, LLM法則の一般的な誤りの分類法を提案する。
また、インフルエンサーマーケティング法で訓練を受けた2人の学生によって注釈付けされたLSM説明のオリジナルのデータセットも含まれている。
- 参考スコア(独自算出の注目度): 7.882476240758369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of influencer marketing has blurred boundaries between organic content and sponsored content, making the enforcement of legal rules relating to transparency challenging. Effective regulation requires applying legal knowledge with a clear purpose and reason, yet current detection methods of undisclosed sponsored content generally lack legal grounding or operate as opaque "black boxes". Using 1,143 Instagram posts, we compare gpt-5-nano and gemini-2.5-flash-lite under three prompting strategies with controlled levels of legal knowledge provided. Both models perform strongly in classifying content as sponsored or not (F1 up to 0.93), though performance drops by over 10 points on ambiguous cases. We further develop a taxonomy of reasoning errors, showing frequent citation omissions (28.57%), unclear references (20.71%), and hidden ads exhibiting the highest miscue rate (28.57%). While adding regulatory text to the prompt improves explanation quality, it does not consistently improve detection accuracy. The contribution of this paper is threefold. First, it makes a novel addition to regulatory compliance technology by providing a taxonomy of common errors in LLM-generated legal reasoning to evaluate whether automated moderation is not only accurate but also legally robust, thereby advancing the transparent detection of influencer marketing content. Second, it features an original dataset of LLM explanations annotated by two students who were trained in influencer marketing law. Third, it combines quantitative and qualitative evaluation strategies for LLM explanations and critically reflects on how these findings can support advertising regulatory bodies in automating moderation processes on a solid legal foundation.
- Abstract(参考訳): インフルエンサーマーケティングの台頭は、有機コンテンツとスポンサーコンテンツの境界を曖昧にし、透明性に関する法則の施行を困難にしている。
効果的な規制では、明確な目的と理由で法的知識を適用する必要があるが、現在公表されていないスポンサー付きコンテンツの検出方法には、法的根拠がなく、不透明な「ブラックボックス」として運用されている。
1,143のInstagram投稿を使って、gpt-5-nanoとgemini-2.5-flash-liteを3つの戦略で比較した。
どちらのモデルもスポンサー付きかどうか(F1は最大0.93まで)を強く分類するが、あいまいなケースでは10ポイント以上性能が低下する。
さらに、推論エラーの分類を開発し、頻繁な引用省略率(28.57%)、不明瞭な参照率(20.71%)、最も高いミスキューレート(28.57%)を示す隠れ広告を表示する。
プロンプトに規則文を追加することで説明の質が向上するが、検出精度は一貫して向上しない。
この論文の貢献は3倍である。
第一に、自動モデレーションが正確であるだけでなく、法的に堅牢であるかどうかを評価するため、LCM生成法理学における共通誤りの分類を提供し、インフルエンサーのマーケティング内容の透明な検出を促進することにより、規制コンプライアンス技術に新たな追加を行う。
第二に、インフルエンサーマーケティング法で訓練を受けた2人の学生によって注釈付けされたLSM説明のオリジナルデータセットが特徴である。
第3に、LCMの説明のための量的および質的な評価戦略を組み合わせて、これらの発見が、しっかりとした法的基盤上のモデレーションプロセスを自動化する上で、広告規制機関をどのように支援できるかを批判的に反映している。
関連論文リスト
- AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly Peer Review [66.73247554182376]
大規模言語モデル(LLM)がピアレビューに統合された。
未確認のLLMの採用は、ピアレビューシステムの完全性に重大なリスクをもたらす。
5%のレビューを操作すれば、論文の12%が上位30%のランキングでその地位を失う可能性がある。
論文 参考訳(メタデータ) (2024-12-02T16:55:03Z) - Content Moderation by LLM: From Accuracy to Legitimacy [4.249974621573213]
本稿では, 難易度と難易度を区別できないため, 正確さは不十分であり, 誤解を招くものであると主張している。
LLMの最大の目標は、モデレーション決定を正しくする代わりに、それらを合法化することだ。
論文 参考訳(メタデータ) (2024-09-05T03:33:54Z) - Can Watermarking Large Language Models Prevent Copyrighted Text Generation and Hide Training Data? [62.72729485995075]
著作権文書の生成に対する抑止剤としての透かしの有効性について検討する。
我々は、透かしがメンバーシップ推論攻撃(MIA)の成功率に悪影響を及ぼすことを発見した。
透かしにおける最近のMIAの成功率を改善するための適応的手法を提案する。
論文 参考訳(メタデータ) (2024-07-24T16:53:09Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - CrAM: Credibility-Aware Attention Modification in LLMs for Combating Misinformation in RAG [50.030526904378256]
Retrieval-Augmented Generation (RAG)は、外部文書を参照することにより、LLM(Large Language Models)の幻覚を軽減することができる。
この問題に対処するために,我々は「クレディビリティ・アウェアRAG」の課題を探求する。
我々は$textbfCr$edibility-aware $textbfA$ttention $textbfM$odification (CrAM)というプラグイン・アンド・プレイ方式を導入する。
Llama2-13B, Llama3-8B, Qwen1.5-7Bを用いた経時的質問とトリビアQA実験
論文 参考訳(メタデータ) (2024-06-17T13:01:12Z) - Large Language Models as Tax Attorneys: A Case Study in Legal
Capabilities Emergence [5.07013500385659]
本稿では,税法の適用におけるLarge Language Models(LLM)の機能について考察する。
実験では,その後のOpenAIモデルリリースにおけるパフォーマンスの向上とともに,新たな法的理解能力を実証した。
発見は、特に拡張の促進と正しい法的文書と組み合わせることで、高いレベルの精度で実行可能であるが、専門家の税務弁護士レベルではまだ実行できないことを示している。
論文 参考訳(メタデータ) (2023-06-12T12:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。