論文の概要: Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies
- arxiv url: http://arxiv.org/abs/2311.09231v1
- Date: Wed, 4 Oct 2023 22:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:11:29.236328
- Title: Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies
- Title(参考訳): 欧州の完全な民主主義におけるAIに対する欧州の反応に影響を及ぼす要因
- Authors: Long Pham, Barry O'Sullivan, Tai Tan Mai
- Abstract要約: 本研究では、ヨーロッパにおける完全な民主主義と欠陥のある民主主義の文脈において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にあることが観察された。
欠陥のある民主主義に居住する個人は、完全な民主主義の回答者と比較して、AIに対してより肯定的な態度を示す。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the key factors that affect European reactions to
artificial intelligence (AI) in the context of both full and flawed democracies
in Europe. Analysing a dataset of 4,006 respondents, categorised into full
democracies and flawed democracies based on the Democracy Index developed by
the Economist Intelligence Unit (EIU), this research identifies crucial factors
that shape European attitudes toward AI in these two types of democracies. The
analysis reveals noteworthy findings. Firstly, it is observed that flawed
democracies tend to exhibit higher levels of trust in government entities
compared to their counterparts in full democracies. Additionally, individuals
residing in flawed democracies demonstrate a more positive attitude toward AI
when compared to respondents from full democracies. However, the study finds no
significant difference in AI awareness between the two types of democracies,
indicating a similar level of general knowledge about AI technologies among
European citizens. Moreover, the study reveals that trust in AI measures,
specifically "Trust AI Solution", does not significantly vary between full and
flawed democracies. This suggests that despite the differences in democratic
quality, both types of democracies have similar levels of confidence in AI
solutions.
- Abstract(参考訳): 本研究では、ヨーロッパにおける完全な民主主義と欠陥の両面において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
4,006人の回答者のデータセットを分析し、Economist Intelligence Unit(EIU)が開発した民主主義指数に基づいて、完全な民主主義と欠陥のある民主主義に分類した。
その分析で注目すべき発見が明らかになった。
第一に、欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にある。
さらに、欠陥のあるデモクラシーに住む個人は、完全なデモクラシーの回答者に比べてaiに対してよりポジティブな態度を示している。
しかし、この研究は2つのタイプの民主主義の間にAIの認識に有意な違いは見出せず、ヨーロッパの市民の間でAI技術に関する一般的な知識のレベルが類似していることを示している。
さらに、この研究によると、AI対策の信頼性、具体的には"トラストAIソリューション"は、完全な民主主義と欠陥のある民主主義の間には大きな違いはない。
これは、民主的な品質の違いにもかかわらず、どちらのデモクラシーもaiソリューションに対する自信のレベルが同じであることを示唆している。
関連論文リスト
- On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Artificial Intelligence across Europe: A Study on Awareness, Attitude
and Trust [39.35990066478082]
この研究の目的は、ヨーロッパの文脈における人々の見解や認識をよりよく理解することである。
我々は,人々の意識,態度,信頼の3つの側面から構築された新しいアンケート(PAICE)を設計し,検証した。
暗黙の矛盾を強調し、信頼のエコシステムの形成を妨げる可能性のあるトレンドを特定します。
論文 参考訳(メタデータ) (2023-08-19T11:00:32Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Democratising AI: Multiple Meanings, Goals, and Methods [0.0]
多くの政党がAIの民主化を要求しているが、この言葉は様々な目標を指し、その追求は時折矛盾する。
本稿では、一般的に議論されている4種類のAI民主主義について述べる。
主な特徴は、AIの民主化は多言語であり、時には矛盾する概念であるということだ。
論文 参考訳(メタデータ) (2023-03-22T15:23:22Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explaining the Relationship between Internet and Democracy in Partly
Free Countries Using Machine Learning Models [0.0]
この研究は、一部自由国におけるインターネットの民主化への影響に新たな光を当てている。
インターネットの浸透とオンライン検閲はどちらも民主主義のスコアに悪影響を及ぼしている。
オンライン検閲は最も重要な変数であり、その後は統治指標と民主主義の得点に関する教育が続く。
論文 参考訳(メタデータ) (2020-04-11T02:26:37Z) - Artificial Intelligence for EU Decision-Making. Effects on Citizens
Perceptions of Input, Throughput and Output Legitimacy [0.0]
政治的正当性の欠如は、欧州連合が大きな危機を解決できる能力を損なう。
デジタルデータを政治プロセスに統合することで、EUは健全な経験的証拠に基づく意思決定をますます進めようとしている。
本稿では、EUの入力、スループット、出力の正当性に対する市民の認識が3つの意思決定方法の影響について検討する。
論文 参考訳(メタデータ) (2020-03-25T10:56:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。