論文の概要: Consumer Law for AI Agents
- arxiv url: http://arxiv.org/abs/2507.11567v1
- Date: Mon, 14 Jul 2025 19:34:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.072407
- Title: Consumer Law for AI Agents
- Title(参考訳): AIエージェントの消費者法
- Authors: Christoph Busch,
- Abstract要約: 記事は、EUの消費者法がカストボット経済の台頭に備えているかどうかを論じている。
AIエージェントの出現が、既存のeコマースの状況をどのように変えるのかを概説している。
AIエージェントが、人間中心の消費者法律の前提にどのように挑戦するかを説明する。
- 参考スコア(独自算出の注目度): 5.764436941819358
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Since the public release of ChatGPT in November 2022, the AI landscape is undergoing a rapid transformation. Currently, the use of AI chatbots by consumers has largely been limited to image generation or question-answering language models. The next generation of AI systems, AI agents that can plan and execute complex tasks with only limited human involvement, will be capable of a much broader range of actions. In particular, consumers could soon be able to delegate purchasing decisions to AI agents acting as Custobots. Against this background, the Article explores whether EU consumer law, as it currently stands, is ready for the rise of the Custobot Economy. In doing so, the Article makes three contributions. First, it outlines how the advent of AI agents could change the existing e-commerce landscape. Second, it explains how AI agents challenge the premises of a human-centric consumer law which is based on the assumption that consumption decisions are made by humans. Third, the Article presents some initial considerations how a future consumer law could look like that works for both humans and machines.
- Abstract(参考訳): 2022年11月のChatGPTの公開以来、AIの展望は急速に変化している。
現在、消費者によるAIチャットボットの使用は、画像生成や質問応答言語モデルに限られている。
次世代のAIシステムであるAIエージェントは、人間の関与が限定された複雑なタスクを計画し実行することができる。
特に、消費者はすぐに、Custobotsとして働くAIエージェントに意思決定決定を委譲できるかもしれない。
この背景に対して、同条はEUの消費者法が現在あるように、カストボット経済の台頭に備えているかどうかを探求している。
その際、本条は3つのコントリビューションを行う。
まず、AIエージェントの出現が既存のeコマースの状況をどのように変えるかを概説する。
第2に、AIエージェントが、人間による消費決定が人間によってなされるという前提に基づいて、人間中心の消費者法(英語版)の前提にどのように挑戦するかを説明する。
第三に、この条は、将来の消費者法が人間と機械の両方にとってどのように機能するかについて、いくつかの初期的考察を提示している。
関連論文リスト
- Designing AI-Enabled Countermeasures to Cognitive Warfare [0.0]
ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:36:03Z) - Responsible AI Agents [17.712990593093316]
OpenAI、Google、Microsoft、Salesforceといった企業は、AI Agentsが受動的テキストからタスク実行に移行することを約束している。
AIエージェントの潜在的なパワーは、AIエージェントが不正な商取引、人間の操作、爆発的な破壊、知的財産の被害を可能にするという法律学者の恐れを加速させた。
この記事では、AIエージェントの方向性に関する懸念に対処する。
それは、あるソフトウェアが別のソフトウェアとどのように相互作用するかという中核的な側面が、AIエージェントを規律づける方法を生み出し、望ましくない行動が起こりそうにないことを示している。
論文 参考訳(メタデータ) (2025-02-25T16:49:06Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Artificial Intelligence in Election Campaigns: Perceptions, Penalties, and Implications [44.99833362998488]
AI利用の3つのカテゴリ – キャンペーンオペレーション,投票者アウトリーチ,詐欺 – を特定します。
人々は一般的に、キャンペーンでAIを嫌うが、特に詐欺的使用には批判的であり、彼らは標準違反として認識している。
騙しAIの使用は、AI開発を完全に禁止することを含む、より厳格なAI規制に対する公的なサポートを増加させる。
論文 参考訳(メタデータ) (2024-08-08T12:58:20Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency [0.0]
会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
会話エージェントは 近い将来 配備される可能性が高い 標的となる影響目標を 追求するように設計されている
AI操作問題(AI Manipulation Problem)と呼ばれることもあるが、消費者が捕食的AIエージェントとのリアルタイム対話を無意識に行うというリスクが表面化している。
論文 参考訳(メタデータ) (2023-06-19T04:09:16Z) - Governance of the AI, by the AI, and for the AI [9.653656920225858]
研究者たちは、人工知能の時代がようやくやってきたと信じている。
AIの現状は、社会の多くの異なる分野に大きな変化をもたらしている。
論文 参考訳(メタデータ) (2023-05-04T03:29:07Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - On the Influence of Explainable AI on Automation Bias [0.0]
我々は、説明可能なAI(XAI)によって自動化バイアスに影響を与える可能性に光を当てることを目指している。
ホテルのレビュー分類に関するオンライン実験を行い、最初の結果について議論する。
論文 参考訳(メタデータ) (2022-04-19T12:54:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。