論文の概要: Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance
- arxiv url: http://arxiv.org/abs/2411.19356v1
- Date: Thu, 28 Nov 2024 20:03:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:22:36.081069
- Title: Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance
- Title(参考訳): 人工知能の公的な認識のマッピング:社会受容のための決定要因としての期待、リスクベネフィットトレードオフ、価値
- Authors: Philipp Brauner, Felix Glawe, Gian Luca Liehner, Luisa Vervier, Martina Ziefle,
- Abstract要約: ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者はAIの将来能力に関する71のステートメントを定量的に評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
- 参考スコア(独自算出の注目度): 0.20971479389679332
- License:
- Abstract: Understanding public perception of artificial intelligence (AI) and the tradeoffs between potential risks and benefits is crucial, as these perceptions might shape policy decisions, influence innovation trajectories for successful market strategies, and determine individual and societal acceptance of AI technologies. Using a representative sample of 1100 participants from Germany, this study examines mental models of AI. Participants quantitatively evaluated 71 statements about AI's future capabilities (e.g., autonomous driving, medical care, art, politics, warfare, and societal divides), assessing the expected likelihood of occurrence, perceived risks, benefits, and overall value. We present rankings of these projections alongside visual mappings illustrating public risk-benefit tradeoffs. While many scenarios were deemed likely, participants often associated them with high risks, limited benefits, and low overall value. Across all scenarios, 96.4% ($r^2=96.4\%$) of the variance in value assessment can be explained by perceived risks ($\beta=-.504$) and perceived benefits ($\beta=+.710$), with no significant relation to expected likelihood. Demographics and personality traits influenced perceptions of risks, benefits, and overall evaluations, underscoring the importance of increasing AI literacy and tailoring public information to diverse user needs. These findings provide actionable insights for researchers, developers, and policymakers by highlighting critical public concerns and individual factors essential to align AI development with individual values.
- Abstract(参考訳): 人工知能(AI)の大衆の認識と潜在的なリスクと利益のトレードオフを理解することは、これらの認識が政策決定を形作り、市場戦略の成功のためにイノベーションの軌道に影響し、AI技術の個人的および社会的受容を決定するため、非常に重要である。
ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者は、AIの将来能力(例えば、自律運転、医療、芸術、政治、戦争、社会的分断)に関する71の声明を定量的に評価し、起こりうる可能性、認識されるリスク、利益、全体的な価値を評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
多くのシナリオが考えられるが、参加者はしばしば、高いリスク、限られた利益、全体的な価値の低下に関連付けられている。
すべてのシナリオにおいて、価値評価のばらつきの96.4%(r^2=96.4\%$)は、認識されるリスク(\beta=-.504$)と知覚される利益(\beta=+.710$)によって説明できる。
デモグラフィックとパーソナリティの特徴は、リスク、利益、全体的な評価に対する認識に影響し、AIリテラシーを高めることの重要性と、さまざまなユーザニーズに公衆情報を合わせることの重要性を強調した。
これらの発見は、研究者、開発者、政策立案者に対して、AI開発を個々の価値と整合させる上で不可欠な重要な公共の懸念と個々の要因を強調することで、実用的な洞察を提供する。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Global Perspectives of AI Risks and Harms: Analyzing the Negative Impacts of AI Technologies as Prioritized by News Media [3.2566808526538873]
AI技術は経済成長とイノベーションを促進する可能性があるが、社会に重大なリスクをもたらす可能性がある。
これらのニュアンスを理解する一つの方法は、メディアがAIにどう報告するかを調べることである。
我々は、アジア、アフリカ、ヨーロッパ、中東、北アメリカ、オセアニアにまたがる27カ国にまたがる、広く多様なグローバルニュースメディアのサンプルを分析した。
論文 参考訳(メタデータ) (2025-01-23T19:14:11Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - AI Perceptions Across Cultures: Similarities and Differences in Expectations, Risks, Benefits, Tradeoffs, and Value in Germany and China [0.20971479389679332]
本研究は,AIの将来的影響に関する71の声明に対する反応を評価するために,マイクロシナリオを用いたAIの公開精神モデルについて検討する。
ドイツの参加者はより慎重な評価に傾向を示し、中国の参加者はAIの社会的利益に関してより楽観的であった。
論文 参考訳(メタデータ) (2024-12-18T13:34:44Z) - Misalignments in AI Perception: Quantitative Findings and Visual Mapping of How Experts and the Public Differ in Expectations and Risks, Benefits, and Value Judgments [0.20971479389679332]
本研究は,一般の公立および学術的AI専門家が,71のシナリオにおいてAIの能力と影響をどう認識するかを検討する。
参加者は、予測される確率、認識されるリスクと利益、全体的な感情(または価値)の4つの次元で各シナリオを評価した。
専門家は高い確率を予測し、低いリスクを知覚し、有用性を報告し、非専門家と比較してAIに対する好意的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [7.35411010153049]
リスクを減らす最善の方法は、包括的なAIライフサイクルガバナンスを実装することです。
リスクは技術コミュニティのメトリクスを使って定量化できます。
本稿では,このようなアプローチの機会,課題,潜在的影響に焦点をあてて,これらの課題について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。