論文の概要: Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies
- arxiv url: http://arxiv.org/abs/2311.09231v1
- Date: Wed, 4 Oct 2023 22:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:11:29.236328
- Title: Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies
- Title(参考訳): 欧州の完全な民主主義におけるAIに対する欧州の反応に影響を及ぼす要因
- Authors: Long Pham, Barry O'Sullivan, Tai Tan Mai
- Abstract要約: 本研究では、ヨーロッパにおける完全な民主主義と欠陥のある民主主義の文脈において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にあることが観察された。
欠陥のある民主主義に居住する個人は、完全な民主主義の回答者と比較して、AIに対してより肯定的な態度を示す。
- 参考スコア(独自算出の注目度): 1.104960878651584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the key factors that affect European reactions to
artificial intelligence (AI) in the context of both full and flawed democracies
in Europe. Analysing a dataset of 4,006 respondents, categorised into full
democracies and flawed democracies based on the Democracy Index developed by
the Economist Intelligence Unit (EIU), this research identifies crucial factors
that shape European attitudes toward AI in these two types of democracies. The
analysis reveals noteworthy findings. Firstly, it is observed that flawed
democracies tend to exhibit higher levels of trust in government entities
compared to their counterparts in full democracies. Additionally, individuals
residing in flawed democracies demonstrate a more positive attitude toward AI
when compared to respondents from full democracies. However, the study finds no
significant difference in AI awareness between the two types of democracies,
indicating a similar level of general knowledge about AI technologies among
European citizens. Moreover, the study reveals that trust in AI measures,
specifically "Trust AI Solution", does not significantly vary between full and
flawed democracies. This suggests that despite the differences in democratic
quality, both types of democracies have similar levels of confidence in AI
solutions.
- Abstract(参考訳): 本研究では、ヨーロッパにおける完全な民主主義と欠陥の両面において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
4,006人の回答者のデータセットを分析し、Economist Intelligence Unit(EIU)が開発した民主主義指数に基づいて、完全な民主主義と欠陥のある民主主義に分類した。
その分析で注目すべき発見が明らかになった。
第一に、欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にある。
さらに、欠陥のあるデモクラシーに住む個人は、完全なデモクラシーの回答者に比べてaiに対してよりポジティブな態度を示している。
しかし、この研究は2つのタイプの民主主義の間にAIの認識に有意な違いは見出せず、ヨーロッパの市民の間でAI技術に関する一般的な知識のレベルが類似していることを示している。
さらに、この研究によると、AI対策の信頼性、具体的には"トラストAIソリューション"は、完全な民主主義と欠陥のある民主主義の間には大きな違いはない。
これは、民主的な品質の違いにもかかわらず、どちらのデモクラシーもaiソリューションに対する自信のレベルが同じであることを示唆している。
関連論文リスト
- Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - How will advanced AI systems impact democracy? [16.944248678780614]
生成的人工知能が民主的プロセスに与える影響について論じる。
我々は、AIが選挙のような民主的なメカニズムを不安定化または支援するためにどのように使われるか尋ねる。
最後に、AIが民主主義の原則を強化するか弱めるかについて議論する。
論文 参考訳(メタデータ) (2024-08-27T12:05:59Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Artificial Intelligence across Europe: A Study on Awareness, Attitude
and Trust [39.35990066478082]
この研究の目的は、ヨーロッパの文脈における人々の見解や認識をよりよく理解することである。
我々は,人々の意識,態度,信頼の3つの側面から構築された新しいアンケート(PAICE)を設計し,検証した。
暗黙の矛盾を強調し、信頼のエコシステムの形成を妨げる可能性のあるトレンドを特定します。
論文 参考訳(メタデータ) (2023-08-19T11:00:32Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Democratising AI: Multiple Meanings, Goals, and Methods [0.0]
多くの政党がAIの民主化を要求しているが、この言葉は様々な目標を指し、その追求は時折矛盾する。
本稿では、一般的に議論されている4種類のAI民主主義について述べる。
主な特徴は、AIの民主化は多言語であり、時には矛盾する概念であるということだ。
論文 参考訳(メタデータ) (2023-03-22T15:23:22Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。