論文の概要: AI Perceptions Across Cultures: Similarities and Differences in Expectations, Risks, Benefits, Tradeoffs, and Value in Germany and China
- arxiv url: http://arxiv.org/abs/2412.13841v1
- Date: Wed, 18 Dec 2024 13:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:34.810982
- Title: AI Perceptions Across Cultures: Similarities and Differences in Expectations, Risks, Benefits, Tradeoffs, and Value in Germany and China
- Title(参考訳): 文化全体にわたるAI知覚:ドイツと中国の期待、リスク、利益、トレードオフ、価値の類似性と相違
- Authors: Philipp Brauner, Felix Glawe, Gian Luca Liehner, Luisa Vervier, Martina Ziefle,
- Abstract要約: 本研究は,AIの将来的影響に関する71の声明に対する反応を評価するために,マイクロシナリオを用いたAIの公開精神モデルについて検討する。
ドイツの参加者はより慎重な評価に傾向を示し、中国の参加者はAIの社会的利益に関してより楽観的であった。
- 参考スコア(独自算出の注目度): 0.20971479389679332
- License:
- Abstract: As artificial intelligence (AI) continues to advance, understanding public perceptions -- including biases, risks, and benefits -- is critical for guiding research priorities, shaping public discourse, and informing policy. This study explores public mental models of AI using micro scenarios to assess reactions to 71 statements about AI's potential future impacts. Drawing on cross-cultural samples from Germany (N=52) and China (N=60), we identify significant differences in expectations, evaluations, and risk-utility tradeoffs. German participants tended toward more cautious assessments, whereas Chinese participants expressed greater optimism regarding AI's societal benefits. Chinese participants exhibited relatively balanced risk-benefit tradeoffs ($\beta=-0.463$ for risk and $\beta=+0.484$ for benefit, $r^2=.630$). In contrast, German participants showed a stronger emphasis on AI benefits and less on risks ($\beta=-0.337$ for risk and $\beta=+0.715$ for benefit, $r^2=.839$). Visual cognitive maps illustrate these contrasts, offering new perspectives on how cultural contexts shape AI acceptance. Our findings underline key factors influencing public perception and provide actionable insights for fostering equitable and culturally sensitive integration of AI technologies.
- Abstract(参考訳): 人工知能(AI)が進歩を続けるにつれて、偏見、リスク、利益など、公共の認識を理解することは、研究の優先事項の導出、公衆の言論の形成、政策の報知に不可欠である。
本研究は,AIの将来的影響に関する71の声明に対する反応を評価するために,マイクロシナリオを用いたAIの公開精神モデルについて検討する。
ドイツ(N=52)と中国(N=60)のクロスカルチャー標本を描画し,期待,評価,リスク・ユーティリティ・トレードオフの有意な差異を明らかにした。
ドイツの参加者はより慎重な評価に傾向を示し、中国の参加者はAIの社会的利益に関してより楽観的であった。
中国の参加者は比較的バランスのとれたリスク・ベネフィットのトレードオフ(リスクは\beta=-0.463$、利益は$\beta=+0.484$、利益は$r^2=.630$)を示した。
対照的に、ドイツの参加者はAIの利点に強く重点を置いており、リスクは低い(リスクは\beta=-0.337$、利益は$\beta=+0.715$、利益は$r^2=.839$)。
視覚認知マップは、これらのコントラストを示し、文化的なコンテキストがAIの受容をいかに形作るかについて、新たな視点を提供する。
我々の発見は、一般の認識に影響を及ぼす重要な要因を浮き彫りにし、AI技術の公平で文化的に敏感な統合を促進するための実用的な洞察を提供する。
関連論文リスト
- Human Decision-making is Susceptible to AI-driven Manipulation [71.20729309185124]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - Nationality, Race, and Ethnicity Biases in and Consequences of Detecting AI-Generated Self-Presentations [1.6772190302364975]
言語スタイルのようなコンテンツは、AI検出において重要な役割を担った。
アジアとヒスパニックの応募者は、国内学生とラベル付けされた場合、AIユーザーと判断される傾向があった。
論文 参考訳(メタデータ) (2024-12-24T18:31:44Z) - Misalignments in AI Perception: Quantitative Findings and Visual Mapping of How Experts and the Public Differ in Expectations and Risks, Benefits, and Value Judgments [0.20971479389679332]
本研究は,一般の公立および学術的AI専門家が,71のシナリオにおいてAIの能力と影響をどう認識するかを検討する。
参加者は、予測される確率、認識されるリスクと利益、全体的な感情(または価値)の4つの次元で各シナリオを評価した。
専門家は高い確率を予測し、低いリスクを知覚し、有用性を報告し、非専門家と比較してAIに対する好意的な感情を表現する。
論文 参考訳(メタデータ) (2024-12-02T12:51:45Z) - Mapping Public Perception of Artificial Intelligence: Expectations, Risk-Benefit Tradeoffs, and Value As Determinants for Societal Acceptance [0.20971479389679332]
ドイツからの1100人の参加者の代表的サンプルを用いて,AIの精神モデルについて検討した。
参加者はAIの将来能力に関する71のステートメントを定量的に評価した。
我々は、これらの予測のランキングを、公共のリスクと利益のトレードオフを示す視覚マッピングと共に提示する。
論文 参考訳(メタデータ) (2024-11-28T20:03:01Z) - Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - The Impact of Generative Artificial Intelligence on Market Equilibrium: Evidence from a Natural Experiment [19.963531237647103]
生成人工知能(AI)は、人間の出力に似た創造的なコンテンツをより効率よく、コストを削減できる能力を示す。
本稿では,中国の主要なアートアウトソーシングプラットフォームにおいて,生成AIが市場均衡に与える影響を実証的に検討する。
我々の分析によると、生成AIの出現は平均価格を64%引き下げる結果となったが、同時に注文量が121%増加し、全体の売上が56%増加した。
論文 参考訳(メタデータ) (2023-11-13T04:31:53Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。