論文の概要: Regulating AI-Based Remote Biometric Identification. Investigating the Public Demand for Bans, Audits, and Public Database Registrations
- arxiv url: http://arxiv.org/abs/2401.13605v3
- Date: Mon, 6 May 2024 09:11:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 23:55:35.867261
- Title: Regulating AI-Based Remote Biometric Identification. Investigating the Public Demand for Bans, Audits, and Public Database Registrations
- Title(参考訳): AIに基づく遠隔生体認証の規制 : 禁止,監査,および公開データベース登録の公衆需要調査
- Authors: Kimon Kieslich, Marco Lünich,
- Abstract要約: この研究は、AI技術の規制の要求につながる可能性のある潜在的な要因として、AIに対する信頼と法執行への信頼の役割に焦点を当てている。
我々は、差別に対する認識がより強い規制の要求につながる一方で、AIへの信頼と法執行機関への信頼は、RBIシステムに対する規制の要求に関して反対の効果をもたらすことを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI is increasingly being used in the public sector, including public security. In this context, the use of AI-powered remote biometric identification (RBI) systems is a much-discussed technology. RBI systems are used to identify criminal activity in public spaces, but are criticised for inheriting biases and violating fundamental human rights. It is therefore important to ensure that such systems are developed in the public interest, which means that any technology that is deployed for public use needs to be scrutinised. While there is a consensus among business leaders, policymakers and scientists that AI must be developed in an ethical and trustworthy manner, scholars have argued that ethical guidelines do not guarantee ethical AI, but rather prevent stronger regulation of AI. As a possible counterweight, public opinion can have a decisive influence on policymakers to establish boundaries and conditions under which AI systems should be used -- if at all. However, we know little about the conditions that lead to regulatory demand for AI systems. In this study, we focus on the role of trust in AI as well as trust in law enforcement as potential factors that may lead to demands for regulation of AI technology. In addition, we explore the mediating effects of discrimination perceptions regarding RBI. We test the effects on four different use cases of RBI varying the temporal aspect (real-time vs. post hoc analysis) and purpose of use (persecution of criminals vs. safeguarding public events) in a survey among German citizens. We found that German citizens do not differentiate between the different modes of application in terms of their demand for RBI regulation. Furthermore, we show that perceptions of discrimination lead to a demand for stronger regulation, while trust in AI and trust in law enforcement lead to opposite effects in terms of demand for a ban on RBI systems.
- Abstract(参考訳): AIは、公共のセキュリティを含む公共部門でますます使われている。
この文脈では、AIによる遠隔生体認証(RBI)システムの使用は、非常に議論の的になっている技術である。
RBIシステムは公共空間における犯罪行為を特定するために使用されるが、偏見を継承し、基本的人権を侵害しているとして批判されている。
したがって、そのようなシステムが公益に開発されることを保証することが重要であり、公益に展開される技術は精査する必要がある。
ビジネスリーダー、政策立案者、科学者の間では、AIは倫理的で信頼できる方法で開発されなければならないという意見が一致しているが、学者らは倫理的ガイドラインは倫理的AIを保証せず、むしろAIのより強力な規制を防ぐものだと主張している。
カウンターウェイトの可能性として、世論は政策立案者に決定的な影響を及ぼし、もしもAIシステムが使われるべき境界と条件を確立することができる。
しかし、AIシステムの規制要求につながる条件についてはほとんど分かっていない。
本研究では,AI技術規制の要求につながる可能性のある潜在的な要因として,AIにおける信頼の役割と,法執行機関に対する信頼に焦点を当てる。
また, RBIに関する識別認知の媒介効果についても検討した。
ドイツ国民を対象にした調査において, RBIの時間的側面(リアルタイム対ポストホック分析)と使用目的(犯罪者の迫害対公共イベントの保護)の異なる4つのユースケースに対する効果を検証した。
ドイツの市民は、RBI規制の要求の観点から異なる申請形態を区別しないことがわかった。
さらに、差別に対する認識がより強い規制の要求につながる一方で、AIへの信頼と法執行機関への信頼は、RBIシステムに対する規制の要求に関して反対の効果をもたらすことを示す。
関連論文リスト
- Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - On the Efficiency of Ethics as a Governing Tool for Artificial
Intelligence [0.0]
人工知能倫理と安全は、近年人気が高まっている新興研究分野である。
いくつかの民間、公共、非政府組織は、自律的なインテリジェントシステムの使用と開発を規制するための倫理的原則を提唱するガイドラインを公表した。
私たちは、現在のAI倫理について批判的な分析を行い、この形式のガバナンスは、AI産業とその開発者を規範するのに十分なものではないことを提案したい。
論文 参考訳(メタデータ) (2022-10-27T09:46:33Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。