論文の概要: Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI
- arxiv url: http://arxiv.org/abs/2412.01459v2
- Date: Tue, 26 Aug 2025 10:08:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 15:23:52.230383
- Title: Perception Gaps in Risk, Benefit, and Value Between Experts and Public Challenge Socially Accepted AI
- Title(参考訳): リスク、ベネフィット、そして専門家と社会的に受け入れられたAIに対する公的な挑戦の間の価値の知覚ギャップ
- Authors: Philipp Brauner, Felix Glawe, Gian Luca Liehner, Luisa Vervier, Martina Ziefle,
- Abstract要約: 本研究は,一般のAI専門家がAIの能力と影響をどう認識するかを検討する。
シナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
専門家は、常に高い確率を予測し、リスクを知覚し、より多くの利益を報告し、非専門家よりもAIに対する肯定的な感情を表現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is reshaping many societal domains, raising critical questions about its risks, benefits, and the potential misalignment between public and academic perspectives. This study examines how the general public (N=1110) -- individuals who interact with or are impacted by AI technologies -- and academic AI experts (N=119) -- those elites shaping AI development -- perceive AI's capabilities and impact across 71 scenarios. These scenarios span domains such as sustainability, healthcare, job performance, societal inequality, art, and warfare. Participants evaluated these scenarios across four dimensions using the psychometric model: likelihood, perceived risk and benefit, and overall value (or sentiment). The results suggest significant differences: experts consistently anticipate higher probabilities, perceive lower risks, report greater benefits, and express more positive sentiment toward AI compared to the non-experts. Moreover, both groups apply different weighting schemes: experts discount risk more heavily relative to benefit than non-experts. Visual mappings of these evaluations uncover areas convergent evaluations (e.g., AI performing medical diagnoses or criminal use) as well as tension points (e.g., decision of legal cases, political decision making), highlighting areas where communication and policy interventions may be needed. These findings underscore a critical translational challenge: if AI research and deployment are to align with societal priorities, the perception gap between developers and the public must be better understood and addressed. Our results provide an empirical foundation for value-sensitive AI governance and trust-building strategies across stakeholder groups.
- Abstract(参考訳): 人工知能(AI)は多くの社会的領域を再構築し、そのリスク、利益、および公的および学術的な視点の潜在的な相違について批判的な疑問を提起している。
この研究は、一般大衆(N=1110)がAI技術と対話し、影響を受けている個人(N=119)と、学術AIの専門家(N=119)がAI開発を形作るエリートたち(AIの能力と71のシナリオに対する影響を知覚する方法について調査する。
これらのシナリオは、持続可能性、医療、仕事のパフォーマンス、社会的不平等、芸術、戦争といった領域にまたがる。
参加者は、サイコメトリックモデル(可能性、リスクと利益、全体的な価値(または感情))を用いて、これらのシナリオを4次元にわたって評価した。
専門家は、常に高い確率を予測し、低いリスクを知覚し、より大きな利益を報告し、非専門家と比較してAIに対する肯定的な感情を表現する。
さらに、どちらのグループも異なる重み付け方式を採用しており、専門家は非専門家よりも利益に対して大きなリスクを減らしている。
これらの評価のビジュアルマッピングは、収束した評価領域(例えば、医療診断や犯罪使用を行うAI)と緊張点(例えば、訴訟の決定、政治的意思決定)を明らかにし、コミュニケーションと政策介入が必要な領域を強調します。
これらの発見は、AIの研究と展開が社会的優先順位に合致するならば、開発者と一般人の認識ギャップはより深く理解され、対処されなければならない、という重要な翻訳課題を浮き彫りにしている。
我々の結果は、ステークホルダーグループ間で価値に敏感なAIガバナンスと信頼構築戦略の実証的な基盤を提供する。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - AI Perceptions Across Cultures: Similarities and Differences in Expectations, Risks, Benefits, Tradeoffs, and Value in Germany and China [0.20971479389679332]
本研究は,AIの将来的影響に関する71の声明に対する反応を評価するために,マイクロシナリオを用いたAIの公開精神モデルについて検討する。
ドイツの参加者はより慎重な評価に傾向を示し、中国の参加者はAIの社会的利益に関してより楽観的であった。
論文 参考訳(メタデータ) (2024-12-18T13:34:44Z) - Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance [0.20971479389679332]
ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者はAIの将来能力に関する71のステートメントを定量的に評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
論文 参考訳(メタデータ) (2024-11-28T20:03:01Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。