論文の概要: The Fake Friend Dilemma: Trust and the Political Economy of Conversational AI
- arxiv url: http://arxiv.org/abs/2601.03222v1
- Date: Tue, 06 Jan 2026 18:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.052527
- Title: The Fake Friend Dilemma: Trust and the Political Economy of Conversational AI
- Title(参考訳): Fake Friend Dilemma: 会話型AIの信頼と政治経済
- Authors: Jacob Erickson,
- Abstract要約: 本稿では,AIエージェントを信頼する社会工学的条件であるFake Friend Dilemma(FFD)を開発した。
我々は、隠蔽広告、政治プロパガンダ、行動ヌード、監視など、害のタイプロジを構築している。
非対称的なパワーのベクターとしての信頼に焦点を当てることで、FFDはAIシステムがいかにユーザーの自律性を損なうかを理解するためのレンズを提供する。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As conversational AI systems become increasingly integrated into everyday life, they raise pressing concerns about user autonomy, trust, and the commercial interests that influence their behavior. To address these concerns, this paper develops the Fake Friend Dilemma (FFD), a sociotechnical condition in which users place trust in AI agents that appear supportive while pursuing goals that are misaligned with the user's own. The FFD provides a critical framework for examining how anthropomorphic AI systems facilitate subtle forms of manipulation and exploitation. Drawing on literature in trust, AI alignment, and surveillance capitalism, we construct a typology of harms, including covert advertising, political propaganda, behavioral nudging, and surveillance. We then assess possible mitigation strategies, including both structural and technical interventions. By focusing on trust as a vector of asymmetrical power, the FFD offers a lens for understanding how AI systems may undermine user autonomy while maintaining the appearance of helpfulness.
- Abstract(参考訳): 会話型AIシステムが日々の生活にますます統合されるにつれて、彼らはユーザーの自律性、信頼、そして彼らの行動に影響を与える商業的関心に対するプレッシャーを増す。
これらの問題に対処するため,本稿では,AIエージェントを信頼する上で,ユーザ自身が不一致な目標を追求する社会工学的条件であるFake Friend Dilemma(FFD)を開発する。
FFDは、人為的AIシステムが微妙な操作と搾取の形式をどのように促すかを調べるための重要なフレームワークを提供する。
信頼の文学、AIアライメント、監視資本主義に基づいて、私たちは、隠蔽広告、政治的プロパガンダ、行動ヌード、監視などの害のタイプロジを構築します。
次に、構造的および技術的介入を含む潜在的な緩和戦略を評価する。
非対称的なパワーのベクターとしての信頼に焦点を当てることで、FFDはAIシステムがいかにユーザーの自律性を損なうかを理解するためのレンズを提供する。
関連論文リスト
- Healthy Distrust in AI systems [0.8624680612413766]
我々は、「健康不信」という用語を提案し、特定のAI利用慣行に対する正当化された慎重なスタンスを説明する。
本稿では,コンピュータ科学,社会学,歴史,心理学,哲学における信頼と不信の概念について検討する。
論文 参考訳(メタデータ) (2025-05-14T19:13:47Z) - The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。