論文の概要: Strategies to Counter Artificial Intelligence in Law Enforcement: Cross-Country Comparison of Citizens in Greece, Italy and Spain
- arxiv url: http://arxiv.org/abs/2405.19970v1
- Date: Thu, 30 May 2024 11:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 14:38:07.765749
- Title: Strategies to Counter Artificial Intelligence in Law Enforcement: Cross-Country Comparison of Citizens in Greece, Italy and Spain
- Title(参考訳): 法執行における人工知能対策戦略:ギリシャ、イタリア、スペインにおける市民のクロスカウンタリー比較
- Authors: Petra Saskia Bayerl, Babak Akhgar, Ernesto La Mattina, Barbara Pirillo, Ioana Cotoi, Davide Ariu, Matteo Mauri, Jorge Garcia, Dimitris Kavallieros, Antonia Kardara, Konstantina Karagiorgou,
- Abstract要約: 本稿では、法執行機関(LEA)による人工知能利用に対する市民の対策について検討する。
3つの国(ギリシャ、イタリア、スペイン)の情報に基づいて、我々は10の特定の対策戦略の可能性において格差を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates citizens' counter-strategies to the use of Artificial Intelligence (AI) by law enforcement agencies (LEAs). Based on information from three countries (Greece, Italy and Spain) we demonstrate disparities in the likelihood of ten specific counter-strategies. We further identified factors that increase the propensity for counter-strategies. Our study provides an important new perspective to societal impacts of security-focused AI applications by illustrating the conscious, strategic choices by citizens when confronted with AI capabilities for LEAs.
- Abstract(参考訳): 本稿では、法執行機関(LEA)による人工知能(AI)の利用に対する市民の対策について検討する。
3つの国(ギリシャ、イタリア、スペイン)の情報に基づいて、我々は10の特定の対策戦略の可能性において格差を示す。
さらに,対策戦略の妥当性を高める要因を明らかにした。
我々の研究は、LEAのAI能力に直面する市民の意識的かつ戦略的選択を示すことによって、セキュリティに焦点を当てたAIアプリケーションの社会的影響に対する重要な新しい視点を提供する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Artificial Intelligence and Strategic Decision-Making: Evidence from Entrepreneurs and Investors [1.1060425537315088]
本稿では、企業における戦略的意思決定(SDM)プロセスに人工知能(AI)がどのような影響を与えるかを検討する。
我々は、AIが既存のSDMツールをどのように強化するかを説明し、主要なアクセラレータプログラムとスタートアップコンペティションから経験的な証拠を提供する。
SDMの根底にある重要な認知過程である探索、表現、集約について考察する。
論文 参考訳(メタデータ) (2024-08-16T15:46:15Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Artificial Intelligence across Europe: A Study on Awareness, Attitude
and Trust [39.35990066478082]
この研究の目的は、ヨーロッパの文脈における人々の見解や認識をよりよく理解することである。
我々は,人々の意識,態度,信頼の3つの側面から構築された新しいアンケート(PAICE)を設計し,検証した。
暗黙の矛盾を強調し、信頼のエコシステムの形成を妨げる可能性のあるトレンドを特定します。
論文 参考訳(メタデータ) (2023-08-19T11:00:32Z) - Citizen Perspectives on Necessary Safeguards to the Use of AI by Law
Enforcement Agencies [0.0]
本研究は,111人の市民のインタビューを通じて,警察によるAI利用に対する見解を探るものである。
サイバー犯罪やテロリズムの文脈において、LEAによるAI使用のネガティブな影響からの保護の提案とともに、社会的な懸念を統合している。
論文 参考訳(メタデータ) (2023-05-31T12:26:34Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - European Strategy on AI: Are we truly fostering social good? [1.7849339006560667]
欧州委員会はAI戦略を導入し、中国やアメリカといった世界各国と今後数年で競争できるようにした。
ほとんどの加盟国は、欧州の協調計画に取り組むために、独自の国家戦略を公表している。
本稿では,欧州15戦略における投資計画の質的分析の主な成果を報告する。
論文 参考訳(メタデータ) (2020-11-25T16:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。