論文の概要: Reduced AI Acceptance After the Generative AI Boom: Evidence From a Two-Wave Survey Study
- arxiv url: http://arxiv.org/abs/2510.23578v1
- Date: Mon, 27 Oct 2025 17:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.653696
- Title: Reduced AI Acceptance After the Generative AI Boom: Evidence From a Two-Wave Survey Study
- Title(参考訳): ジェネレーティブAIブーム後のAI受容を減らす:2波調査による証拠
- Authors: Joachim Baumann, Aleksandra Urman, Ulrich Leicht-Deobald, Zachary J. Roman, Anikó Hannák, Markus Christen,
- Abstract要約: 本稿では,ChatGPTのローンチ前後におけるAIに対する公的な態度の変化について検討する。
AIが「全く受け入れられない」と回答した回答者の割合は23%から30%に増加した。
これらの変化は、教育、言語、性別格差の拡大の観点から、既存の社会的不平等を増大させてきた。
- 参考スコア(独自算出の注目度): 40.26767449635043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid adoption of generative artificial intelligence (GenAI) technologies has led many organizations to integrate AI into their products and services, often without considering user preferences. Yet, public attitudes toward AI use, especially in impactful decision-making scenarios, are underexplored. Using a large-scale two-wave survey study (n_wave1=1514, n_wave2=1488) representative of the Swiss population, we examine shifts in public attitudes toward AI before and after the launch of ChatGPT. We find that the GenAI boom is significantly associated with reduced public acceptance of AI (see Figure 1) and increased demand for human oversight in various decision-making contexts. The proportion of respondents finding AI "not acceptable at all" increased from 23% to 30%, while support for human-only decision-making rose from 18% to 26%. These shifts have amplified existing social inequalities in terms of widened educational, linguistic, and gender gaps post-boom. Our findings challenge industry assumptions about public readiness for AI deployment and highlight the critical importance of aligning technological development with evolving public preferences.
- Abstract(参考訳): 生成人工知能(GenAI)技術が急速に普及したことで、多くの組織がAIを製品やサービスに統合し、ユーザの好みを考慮せずに利用できるようになった。
しかし、特に影響力のある意思決定シナリオにおいて、AIの使用に対する公衆の態度は過小評価されている。
スイスの人口の大規模な2波調査(n_wave1=1514,n_wave2=1488)を用いて、ChatGPTの立ち上げ前後の公衆のAIに対する態度の変化について検討した。
我々は、GenAIブームが、AIの公的な受容の減少と、さまざまな意思決定コンテキストにおける人間の監視に対する需要の増大に大きく関連していることを発見した(図1参照)。
AIが「全く受け入れられない」と回答した回答者の割合は23%から30%に増加し、人間のみによる意思決定のサポートは18%から26%に増加した。
これらの変化は、教育、言語、性別格差の拡大の観点から、既存の社会的不平等を増大させてきた。
我々の発見は、AIデプロイメントの公的な準備に関する業界上の仮定に挑戦し、技術開発と公衆の嗜好を整合させることの重要性を強調した。
関連論文リスト
- Subjective Experience in AI Systems: What Do AI Researchers and the Public Believe? [0.42131793931438133]
582人のAI研究者と838人の米国代表者を対象に、主観的経験を持つAIシステムの潜在的な発展に関する見解を調査した。
特定の日にそのようなシステムが存在する確率を見積もると、中央値の回答は、2024年までに1%(AI研究者)、5%(パブリック)となった。
一般市民の中央値のメンバーは、主観的経験を持つAIシステムが、中央値のAI研究者(10%)よりも(25%)存在しない可能性が高いと考えた。
論文 参考訳(メタデータ) (2025-06-13T16:53:28Z) - Longitudinal Study on Social and Emotional Use of AI Conversational Agent [12.951074799361994]
市販の4つのAIツールが、AIとAI共感に対するユーザの愛着に与える影響について検討した。
我々の発見は、感情的幸福をサポートする消費者向けAIツールの開発の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-04-19T00:03:48Z) - What do people expect from Artificial Intelligence? Public opinion on alignment in AI moderation from Germany and the United States [0.0]
我々は,ドイツと米国におけるAI対応システムの主要な機能的特徴に対する公的な嗜好に関する2つの調査から得られた証拠を提示する。
我々は,AIモデレーションにおける4種類のアライメント(精度と信頼性,安全性,バイアス緩和,想像の促進)のサポートについて検討する。
どちらの国でも、正確さと安全性は最強の支持を享受する一方、より規範的な目標(公平さや想像力など)はより慎重な支持を受ける。
論文 参考訳(メタデータ) (2025-04-16T20:27:03Z) - When Will AI Transform Society? Swedish Public Predictions on AI Development Timelines [0.0]
本研究は,スウェーデンにおける人工知能(AI)開発の可能性と時期に関する公的な期待について検討する。
我々は、医学的ブレークスルー、大量失業、民主的劣化、生活水準の改善、人工知能(AGI)、制御不能な超知能AIの6つの主要なシナリオを調査した。
発見はAI駆動型医療のブレークスルー(82.6%)について強いコンセンサスを示し、他の主要開発への期待は著しく低い。
論文 参考訳(メタデータ) (2025-04-05T13:57:04Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。