論文の概要: On the Suitability of LLM-Driven Agents for Dark Pattern Audits
- arxiv url: http://arxiv.org/abs/2603.03881v1
- Date: Wed, 04 Mar 2026 09:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.253552
- Title: On the Suitability of LLM-Driven Agents for Dark Pattern Audits
- Title(参考訳): 暗パターン聴取のためのLCM駆動エージェントの適合性について
- Authors: Chen Sun, Yash Vekaria, Rishab Nithyanand,
- Abstract要約: 我々は、監査エージェントが一連のデータブローカWebサイトを横断する要求フローを一貫して特定し、完了させる能力を評価する。
本研究は,拡張性ダークパターン監査におけるLCM駆動型エージェントの有用性と限界を特徴付けるものである。
- 参考スコア(独自算出の注目度): 5.938387201151421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As LLM-driven agents begin to autonomously navigate the web, their ability to interpret and respond to manipulative interface design becomes critical. A fundamental question that emerges is: can such agents reliably recognize patterns of friction, misdirection, and coercion in interface design (i.e., dark patterns)? We study this question in a setting where the workflows are consequential: website portals associated with the submission of CCPA-related data rights requests. These portals operationalize statutory rights, but they are implemented as interactive interfaces whose design can be structured to facilitate, burden, or subtly discourage the exercise of those rights. We design and deploy an LLM-driven auditing agent capable of end-to-end traversal of rights-request workflows, structured evidence gathering, and classification of potential dark patterns. Across a set of 456 data broker websites, we evaluate: (1) the ability of the agent to consistently locate and complete request flows, (2) the reliability and reproducibility of its dark pattern classifications, and (3) the conditions under which it fails or produces poor judgments. Our findings characterize both the feasibility and the limitations of using LLM-driven agents for scalable dark pattern auditing.
- Abstract(参考訳): LLMを駆使したエージェントがWebを自律的にナビゲートし始めると、操作型インターフェース設計を解釈し、応答する能力が重要になる。
そのようなエージェントは、インターフェースデザイン(すなわち、ダークパターン)における摩擦、方向、強制のパターンを確実に認識できるだろうか?
本稿では,CCPA関連データ権利要求の提出に関連するWebサイトポータルを,ワークフローが適切であるような環境で調査する。
これらのポータルは、法律上の権利を運用するが、それらは、それらの権利の行使を容易にし、負担し、または微妙に妨害するように構成できる、インタラクティブなインターフェースとして実装される。
我々は、権利要求ワークフローのエンドツーエンドのトラバース、構造化された証拠収集、潜在的な暗黒パターンの分類が可能なLLM型監査エージェントを設計、展開する。
456件のデータブローカーのWebサイトを通じて,(1)要求フローの連続的特定と完了能力,(2)ダークパターン分類の信頼性と再現性,(3)失敗や判断不良といった条件を評価した。
本研究は,拡張性ダークパターン監査におけるLCM駆動型エージェントの有用性と限界を特徴付けるものである。
関連論文リスト
- Steering LLMs via Scalable Interactive Oversight [74.12746881843044]
大規模な言語モデルは、エンフェーブコーディングのような複雑で長期にわたるタスクをますます自動化し、監督のギャップが生まれています。
スケーラブルな監視において重要な課題は、人間が責任を持ってAIシステムを、特定または検証する能力を超えたタスクで操ることができることだ。
論文 参考訳(メタデータ) (2026-02-04T04:52:00Z) - The Why Behind the Action: Unveiling Internal Drivers via Agentic Attribution [63.61358761489141]
LLM(Large Language Model)ベースのエージェントは、カスタマーサービス、Webナビゲーション、ソフトウェアエンジニアリングといった現実世界のアプリケーションで広く使われている。
本稿では,タスク結果に関係なく,エージェントの動作を駆動する内部要因を識別する,テキスト汎用エージェント属性のための新しいフレームワークを提案する。
標準ツールの使用やメモリ誘起バイアスのような微妙な信頼性リスクなど、さまざまなエージェントシナリオでフレームワークを検証する。
論文 参考訳(メタデータ) (2026-01-21T15:22:21Z) - Towards Verifiably Safe Tool Use for LLM Agents [53.55621104327779]
大規模言語モデル(LLM)ベースのAIエージェントは、データソース、API、検索エンジン、コードサンドボックス、さらにはその他のエージェントなどのツールへのアクセスを可能にすることで、機能を拡張する。
LLMは意図しないツールインタラクションを起動し、機密データを漏洩したり、クリティカルレコードを上書きしたりするリスクを発生させる。
モデルベースセーフガードのようなリスクを軽減するための現在のアプローチは、エージェントの信頼性を高めるが、システムの安全性を保証することはできない。
論文 参考訳(メタデータ) (2026-01-12T21:31:38Z) - SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - Investigating the Impact of Dark Patterns on LLM-Based Web Agents [16.297159088186888]
LLMベースのジェネラリストWebエージェントの意思決定過程に暗黒パターンが与える影響について検討する。
LiteAgentは、エージェントがタスクを実行するように自動的に促す軽量なフレームワークです。
また、eコマース、ストリーミングサービス、ニュースプラットフォームといったドメインからWebアプリケーションを構成する制御環境であるTrickyArenaについても紹介する。
論文 参考訳(メタデータ) (2025-10-20T21:26:26Z) - Enterprise AI Must Enforce Participant-Aware Access Control [9.68210477539956]
大規模言語モデル(LLM)は、複数のユーザと対話し、センシティブな内部データに基づいてトレーニングあるいは微調整されるエンタープライズ環境に、ますます多くデプロイされている。
敵は、現在の微調整アーキテクチャやRAGアーキテクチャを利用して、アクセス制御の強制力の欠如を活用して機密情報を漏洩することができることを示す。
本稿では, LLM による学習, 検索, 生成に使用されるコンテンツは, インセンティブに関わるユーザに対して明示的に認証される,という原則に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-18T04:30:49Z) - Role-Aware Language Models for Secure and Contextualized Access Control in Organizations [4.122315998598296]
大規模言語モデル(LLM)は、ますますエンタープライズ環境にデプロイされている。
組織の役割の異なるアクセス権限を反映した応答を生成するために,LSMを微調整できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-07-31T11:41:04Z) - Permissioned LLMs: Enforcing Access Control in Large Language Models [11.090184334137758]
本稿では,組織データアクセス制御構造を,それらが生成するクエリ応答に重畳するパーミッションLLMを提案する。
我々はPermLLMメカニズムの有効性を実証的に評価した。
要求されるアクセス制御を実現するために、効率的なファインチューニングを基盤とした新しいPermLLM機構を3つ導入する。
論文 参考訳(メタデータ) (2025-05-28T20:47:02Z) - WebCoT: Enhancing Web Agent Reasoning by Reconstructing Chain-of-Thought in Reflection, Branching, and Rollback [78.55946306325914]
有効なWebエージェントに必要な重要な推論スキルを同定する。
我々はエージェントの推論アルゴリズムを連鎖論理に再構成する。
このアプローチは、複数のベンチマークで大幅に改善される。
論文 参考訳(メタデータ) (2025-05-26T14:03:37Z) - Invisible Tokens, Visible Bills: The Urgent Need to Audit Hidden Operations in Opaque LLM Services [22.700907666937177]
このポジションペーパーは、Opaque LLM Services(COLS)における新たな説明責任の課題を浮き彫りにしている。
トークンとコールカウントを人工的に膨らませるtextitquantity inflationと、プロバイダが低価格のモデルやツールを静かに置き換えるtextitquality downgradeの2つの主要なリスクを形式化する。
本研究では,COLSとユーザを対象としたモジュール型3層監査フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-24T02:26:49Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。