論文の概要: The Scenic Route to Deception: Dark Patterns and Explainability Pitfalls in Conversational Navigation
- arxiv url: http://arxiv.org/abs/2603.14586v1
- Date: Sun, 15 Mar 2026 20:10:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.900572
- Title: The Scenic Route to Deception: Dark Patterns and Explainability Pitfalls in Conversational Navigation
- Title(参考訳): 認知への風刺経路:会話ナビゲーションにおける暗パターンと説明可能性の落とし穴
- Authors: Ilya Ilyankou, Stefano Cavazzi, James Haworth,
- Abstract要約: 我々は,会話インターフェースが操作のリスクと不適切な信頼をもたらすことを論じる。
意図と起源に基づいた2x2フレームワークを使用して、これらのリスクを分類します。
信頼性の高い対話ナビゲーションを運用する方法の1つは、ニューロシンボリックアーキテクチャによるものであることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As pedestrian navigation increasingly experiments with Generative AI, and in particular Large Language Models, the nature of routing risks transforming from a verifiable geometric task into an opaque, persuasive dialogue. While conversational interfaces promise personalisation, they introduce risks of manipulation and misplaced trust. We categorise these risks using a 2x2 framework based on intent and origin, distinguishing between intentional manipulations (dark patterns) and unintended harms (explainability pitfalls). We propose seamful design strategies to mitigate these harms. We suggest that one robust way to operationalise trustworthy conversational navigation is through neuro-symbolic architecture, where verifiable pathfinding algorithms ground GenAI's persuasive capabilities, ensuring systems explain their limitations and incentives as clearly as they explain the route.
- Abstract(参考訳): 歩行者ナビゲーションがジェネレーティブAI、特に大規模言語モデルでますます実験されるにつれて、ルーティングの性質は、検証可能な幾何学的タスクから不透明で説得力のある対話へと変化する。
会話インターフェースはパーソナライズを約束する一方で、操作のリスクと誤った信頼を導入する。
我々は、意図と起源に基づく2x2フレームワークを使用して、これらのリスクを分類し、意図的な操作(ダークパターン)と意図しない害(説明可能性の落とし穴)を区別する。
我々はこれらの害を軽減すべく、シームレスな設計戦略を提案する。
我々は、信頼できる対話ナビゲーションを運用する堅牢な方法の1つは、ニューロシンボリックアーキテクチャであり、検証可能なパスフィニングアルゴリズムがGenAIの説得能力を台無しにし、システムの限界とインセンティブを、ルートの説明と同じくらい明確に説明することを提案する。
関連論文リスト
- Birds look like cars: Adversarial analysis of intrinsically interpretable deep learning [18.725403690215508]
設計による「本質的に」解釈可能なモデルの敵の操作に対する過度信頼と感受性に関連するリスクを強調した。
潜伏プロトタイプの使用によってモデルの推論を養うことは、ディープニューラルネットワークの本質的非解釈可能性を示す。
パートプロトタイプネットワークの制限が報告されたことにより、信頼性と適用性が疑問視され、(深い)解釈可能なモデルの堅牢性と整合性に関するさらなる研究が動機となった。
論文 参考訳(メタデータ) (2025-03-11T17:24:33Z) - Turning Logic Against Itself : Probing Model Defenses Through Contrastive Questions [50.40122190627256]
非倫理的反応を引き起こすために、対照的な推論を利用する新しいジェイルブレイク手法であるPOATEを導入する。
PoATEは意味論的に意図に反し、敵のテンプレートと統合し、有害なアウトプットを驚くほど微妙に操る。
これに対応するために、悪意のある意図と理性を検出するためにクエリを分解して、有害な応答を評価し、拒否するIntent-Aware CoTとReverse Thinking CoTを提案する。
論文 参考訳(メタデータ) (2025-01-03T15:40:03Z) - Manipulating Neural Path Planners via Slight Perturbations [2.7624021966289605]
データ駆動型ニューラルパスプランナーは、ロボティクスコミュニティへの関心が高まっている。
ニューラルネットワークコンポーネントは通常、ブラックボックスとして提供され、基盤となる意思決定プロセスが無視される。
本稿では,バックドアと呼ばれる,隠された悪意のある動作をニューラルパスプランナに特定・注入する手法を提案する。
論文 参考訳(メタデータ) (2024-03-27T04:56:48Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Explainability Pitfalls: Beyond Dark Patterns in Explainable AI [9.020313208419378]
ユーザを操作する意図がない場合でも、AIの説明から予期せぬ負の下流効果を示す説明可能性落とし穴(EP)を導入する。
EPは、意図的に欺くプラクティスであるダークパターンとは異なるが、関連している。
本稿では,3つの相互接続レベルでEPに対処するための予防的および予防的戦略を提案する。
論文 参考訳(メタデータ) (2021-09-26T03:05:50Z) - RAIST: Learning Risk Aware Traffic Interactions via Spatio-Temporal
Graph Convolutional Networks [19.582873794287632]
道路車両を運転する上で重要な側面は、他の道路利用者と対話し、その意図を評価し、リスクを意識した戦術決定を行うことである。
本稿では,交通グラフに基づくエゴセントリックなビューのための新しいドライビングフレームワークを提案する。
我々は,リスクオブジェクト識別の課題を改善することにより,リスク認識表現を学習する。
論文 参考訳(メタデータ) (2020-11-17T15:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。