論文の概要: Misalignments in AI Perception: Quantitative Findings and Visual Mapping of How Experts and the Public Differ in Expectations and Risks, Benefits, and Value Judgments
- arxiv url: http://arxiv.org/abs/2412.01459v1
- Date: Mon, 02 Dec 2024 12:51:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:50:52.135859
- Title: Misalignments in AI Perception: Quantitative Findings and Visual Mapping of How Experts and the Public Differ in Expectations and Risks, Benefits, and Value Judgments
- Title(参考訳): AI知覚におけるミスアライメント:予測、リスク、利益、価値判断における専門家と公衆の関心の定量的発見と視覚マッピング
- Authors: Philipp Brauner, Felix Glawe, Gian Luca Liehner, Luisa Vervier, Martina Ziefle,
- Abstract要約: 本研究は,一般の公立および学術的AI専門家が,71のシナリオにおいてAIの能力と影響をどう認識するかを検討する。
参加者は、予測される確率、認識されるリスクと利益、全体的な感情(または価値)の4つの次元で各シナリオを評価した。
専門家は高い確率を予測し、低いリスクを知覚し、有用性を報告し、非専門家と比較してAIに対する好意的な感情を表現する。
- 参考スコア(独自算出の注目度): 0.20971479389679332
- License:
- Abstract: Artificial Intelligence (AI) is transforming diverse societal domains, raising critical questions about its risks and benefits and the misalignments between public expectations and academic visions. This study examines how the general public (N=1110) -- people using or being affected by AI -- and academic AI experts (N=119) -- people shaping AI development -- perceive AI's capabilities and impact across 71 scenarios, including sustainability, healthcare, job performance, societal divides, art, and warfare. Participants evaluated each scenario on four dimensions: expected probability, perceived risk and benefit, and overall sentiment (or value). The findings reveal significant quantitative differences: experts anticipate higher probabilities, perceive lower risks, report greater utility, and express more favorable sentiment toward AI compared to the non-experts. Notably, risk-benefit tradeoffs differ: the public assigns risk half the weight of benefits, while experts assign it only a third. Visual maps of these evaluations highlight areas of convergence and divergence, identifying potential sources of public concern. These insights offer actionable guidance for researchers and policymakers to align AI development with societal values, fostering public trust and informed governance.
- Abstract(参考訳): 人工知能(AI)は多様な社会的領域を変革し、そのリスクと利益、そして公的な期待と学術的ビジョンの相違について批判的な疑問を提起している。
この研究は、サステナビリティ、ヘルスケア、仕事のパフォーマンス、社会的分断、芸術、戦争を含む71のシナリオにおいて、一般大衆(N=1110) -- AIの使用または影響を受けている人々 -- と学術AI専門家(N=119) -- AI開発を形作る人々 -- がAIの能力と影響を認識しているかを調査する。
参加者は、予測される確率、認識されるリスクと利益、全体的な感情(または価値)の4つの次元でシナリオを評価した。
専門家は高い確率を予測し、低いリスクを知覚し、有用性を報告し、非専門家と比較してAIに対する好意的な感情を表現する。
リスク・ベネフィットのトレードオフは、公共が利益の重さの半分のリスクを割り当てているのに対して、専門家は3分の1のリスクを割り当てている。
これらの評価のビジュアルマップは、収束と分散の領域を強調し、公共の関心事の潜在的な源を特定する。
これらの洞察は、研究者や政策立案者に対して、AI開発を社会的価値と整合させ、公的信頼と情報的ガバナンスを促進するための実用的なガイダンスを提供する。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - AI Perceptions Across Cultures: Similarities and Differences in Expectations, Risks, Benefits, Tradeoffs, and Value in Germany and China [0.20971479389679332]
本研究は,AIの将来的影響に関する71の声明に対する反応を評価するために,マイクロシナリオを用いたAIの公開精神モデルについて検討する。
ドイツの参加者はより慎重な評価に傾向を示し、中国の参加者はAIの社会的利益に関してより楽観的であった。
論文 参考訳(メタデータ) (2024-12-18T13:34:44Z) - Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance [0.20971479389679332]
ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者はAIの将来能力に関する71のステートメントを定量的に評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
論文 参考訳(メタデータ) (2024-11-28T20:03:01Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。