論文の概要: When Life Gives You AI, Will You Turn It Into A Market for Lemons? Understanding How Information Asymmetries About AI System Capabilities Affect Market Outcomes and Adoption
- arxiv url: http://arxiv.org/abs/2601.21650v1
- Date: Thu, 29 Jan 2026 12:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.822021
- Title: When Life Gives You AI, Will You Turn It Into A Market for Lemons? Understanding How Information Asymmetries About AI System Capabilities Affect Market Outcomes and Adoption
- Title(参考訳): 人生がAIを与えるとき、あなたはそれをレモンの市場に変えるだろうか?AIシステムの能力に関する情報対称性が市場の結果と採用にどのように影響するかを理解する
- Authors: Alexander Erlei, Federico Cau, Radoslav Georgiev, Sagar Kumar, Kilian Bizer, Ujwal Gadiraju,
- Abstract要約: 複雑なAIシステムは、コストのかかるエラーを犯したり、隠れた欠陥を埋め込んだりしながら、非常に正確に見える。
本稿では,AIシステムのユーザ導入における情報非対称性と開示設計の役割について,最初の実験的証拠を提供する。
- 参考スコア(独自算出の注目度): 45.10829096284761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI consumer markets are characterized by severe buyer-supplier market asymmetries. Complex AI systems can appear highly accurate while making costly errors or embedding hidden defects. While there have been regulatory efforts surrounding different forms of disclosure, large information gaps remain. This paper provides the first experimental evidence on the important role of information asymmetries and disclosure designs in shaping user adoption of AI systems. We systematically vary the density of low-quality AI systems and the depth of disclosure requirements in a simulated AI product market to gauge how people react to the risk of accidentally relying on a low-quality AI system. Then, we compare participants' choices to a rational Bayesian model, analyzing the degree to which partial information disclosure can improve AI adoption. Our results underscore the deleterious effects of information asymmetries on AI adoption, but also highlight the potential of partial disclosure designs to improve the overall efficiency of human decision-making.
- Abstract(参考訳): AI消費者市場は、厳しい買い手供給市場の非対称性が特徴である。
複雑なAIシステムは、コストのかかるエラーを犯したり、隠れた欠陥を埋め込んだりしながら、非常に正確に見える。
様々な形態の開示を取り巻く規制努力はあったが、大きな情報ギャップは残されている。
本稿では,AIシステムのユーザ採用を形作る上で,情報非対称性と開示設計が果たす重要な役割について,最初の実験的証拠を提供する。
私たちは、低品質のAIシステムの密度と、シミュレーションされたAI製品市場の開示要件の深さを体系的に変化させ、低品質のAIシステムに誤って依存するリスクに対して人々がどのように反応するかを評価する。
次に、参加者の選択を合理的ベイズモデルと比較し、部分的な情報開示がAI導入を改善する程度を分析する。
我々の研究結果は,AI導入における情報非対称性の有害な影響を浮き彫りにするとともに,人間の意思決定の全体的な効率を改善するための部分的開示設計の可能性を強調した。
関連論文リスト
- When Is Self-Disclosure Optimal? Incentives and Governance of AI-Generated Content [25.691139058468377]
Gen-AIは、生産コストを削減し、さまざまな品質のスケーラブルなアウトプットを可能にすることで、デジタルプラットフォーム上でのコンテンツ生成を再構築している。
プラットフォームは、クリエイターがAI生成コンテンツをラベル付けする必要がある公開ポリシーを採用し始めている。
本稿では、こうした開示体制の経済的意味を研究するための形式モデルを開発する。
論文 参考訳(メタデータ) (2026-01-26T16:31:04Z) - Generative AI and Information Asymmetry: Impacts on Adverse Selection and Moral Hazard [7.630624512225164]
情報非対称性は、経済市場において有害な選択とモラルハザードをもたらす。
本研究では、生成人工知能(AI)が詳細な情報信号を生成する方法について検討する。
ジェネレーティブAIは、有害な選択とモラルハザードを効果的に軽減し、より効率的な市場効果と社会的福祉をもたらす。
論文 参考訳(メタデータ) (2025-02-18T15:48:29Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - AI and the Problem of Knowledge Collapse [0.0]
特定の知識モードへのアクセスコストを削減することにより、AIが公衆の理解をパラドックス的に損なう可能性のある条件を特定する。
学習者やイノベーターのコミュニティが従来の手法を使うか、割引されたAI支援プロセスに頼るというシンプルなモデルを提供する。
我々のデフォルトモデルでは、AI生成コンテンツに対する20%の割引は、ディスカウントがない場合よりも真実から2.3倍の信条を生成する。
論文 参考訳(メタデータ) (2024-04-04T15:06:23Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。