論文の概要: Citizen Perspectives on Necessary Safeguards to the Use of AI by Law
Enforcement Agencies
- arxiv url: http://arxiv.org/abs/2306.01786v1
- Date: Wed, 31 May 2023 12:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:47:07.292053
- Title: Citizen Perspectives on Necessary Safeguards to the Use of AI by Law
Enforcement Agencies
- Title(参考訳): 法執行機関によるai利用の安全対策に関する市民の視点
- Authors: Yasmine Ezzeddine, Petra Saskia Bayerl and Helen Gibson
- Abstract要約: 本研究は,111人の市民のインタビューを通じて,警察によるAI利用に対する見解を探るものである。
サイバー犯罪やテロリズムの文脈において、LEAによるAI使用のネガティブな影響からの保護の提案とともに、社会的な懸念を統合している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the light of modern technological advances, Artificial Intelligence (AI)
is relied upon to enhance performance, increase efficiency, and maximize gains.
For Law Enforcement Agencies (LEAs), it can prove valuable in optimizing
evidence analysis and establishing proactive prevention measures. Nevertheless,
citizens raise legitimate concerns around privacy invasions, biases,
inequalities, and inaccurate decisions. This study explores the views of 111
citizens towards AI use by police through interviews, and integrates societal
concerns along with propositions of safeguards from negative effects of AI use
by LEAs in the context of cybercrime and terrorism.
- Abstract(参考訳): 現代の技術進歩に照らして、人工知能(AI)は性能の向上、効率の向上、利得の最大化に頼っている。
法執行機関(LEA)にとって、証拠分析の最適化や予防対策の確立に有用である。
それでも市民は、プライバシー侵害、偏見、不平等、不正確な決定に関する正当な懸念を提起する。
本研究では、インタビューを通じて111人の市民のAI使用に対する見解を調査し、サイバー犯罪やテロリズムの文脈におけるLEAによるAI使用のネガティブな影響からの保護の提案と社会的懸念を統合する。
関連論文リスト
- Strategies to Counter Artificial Intelligence in Law Enforcement: Cross-Country Comparison of Citizens in Greece, Italy and Spain [0.0]
本稿では、法執行機関(LEA)による人工知能利用に対する市民の対策について検討する。
3つの国(ギリシャ、イタリア、スペイン)の情報に基づいて、我々は10の特定の対策戦略の可能性において格差を示す。
論文 参考訳(メタデータ) (2024-05-30T11:55:10Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Ethics and Governance of Artificial Intelligence: Evidence from a Survey
of Machine Learning Researchers [0.0]
機械学習(ML)と人工知能(AI)の研究者は、AIの倫理とガバナンスにおいて重要な役割を果たす。
トップクラスのAI/MLカンファレンスで公開した人々の調査を行った。
AI/MLの研究者たちは、国際組織や科学組織に対して高いレベルの信頼を置いている。
論文 参考訳(メタデータ) (2021-05-05T15:23:12Z) - AI and Legal Argumentation: Aligning the Autonomous Levels of AI Legal
Reasoning [0.0]
法的議論は正義の重要な基盤であり、敵対的な法の形を支えている。
広範囲にわたる研究は、人工知能(AI)を含むコンピュータベースの自動化を使用して、法的議論を拡大または実施しようと試みている。
AI法則推論のLevels of Autonomy(LoA)をAIの成熟と法体系化(AILA)に適用するために、革新的なメタアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T22:05:40Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。