論文の概要: Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act
- arxiv url: http://arxiv.org/abs/2203.00469v1
- Date: Tue, 1 Mar 2022 14:03:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 13:49:20.476731
- Title: Compliance Challenges in Forensic Image Analysis Under the Artificial
Intelligence Act
- Title(参考訳): 人工知能法における法医学的画像解析のコンプライアンス問題
- Authors: Benedikt Lorch, Nicole Scheler, Christian Riess
- Abstract要約: 法医学的画像解析における機械学習の利用が、なぜハイリスクに分類されるのかを概観する。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
- 参考スコア(独自算出の注目度): 8.890638003061605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many applications of forensic image analysis, state-of-the-art results are
nowadays achieved with machine learning methods. However, concerns about their
reliability and opaqueness raise the question whether such methods can be used
in criminal investigations. So far, this question of legal compliance has
hardly been discussed, also because legal regulations for machine learning
methods were not defined explicitly. To this end, the European Commission
recently proposed the artificial intelligence (AI) act, a regulatory framework
for the trustworthy use of AI. Under the draft AI act, high-risk AI systems for
use in law enforcement are permitted but subject to compliance with mandatory
requirements. In this paper, we review why the use of machine learning in
forensic image analysis is classified as high-risk. We then summarize the
mandatory requirements for high-risk AI systems and discuss these requirements
in light of two forensic applications, license plate recognition and deep fake
detection. The goal of this paper is to raise awareness of the upcoming legal
requirements and to point out avenues for future research.
- Abstract(参考訳): 法医学的画像解析の多くの応用において、現在最先端の成果は機械学習手法によって達成されている。
しかし、その信頼性や不透明性に対する懸念は、そのような方法が刑事捜査に利用できるかどうかという疑問を提起する。
機械学習手法の法的規制は明確に定義されていなかったため、これまでのところ法的なコンプライアンスの問題はほとんど議論されていない。
この目的のために、欧州委員会は最近、信頼できるAIの使用のための規制フレームワークである人工知能(AI)法を提案した。
ドラフトAI法の下では、法執行機関で使用されるリスクの高いAIシステムは許可されるが、必須要件に従わなければならない。
本稿では,法医学的画像解析における機械学習の利用が高リスクに分類される理由を概説する。
次に,高リスクaiシステムの要求要件を要約し,ライセンスプレート認識とディープフェイク検出という2つの法医学的応用の観点から,これらの要件について議論する。
本稿の目的は,今後の法的要件に対する意識を高め,今後の研究への道筋を示すことにある。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - An Uncommon Task: Participatory Design in Legal AI [64.54460979588075]
われわれは10年以上前に行われた法律分野における、注目に値する、未調査のAI設計プロセスについて検討する。
インタラクティブなシミュレーション手法によって,コンピュータ科学者と弁護士が共同設計者になれることを示す。
論文 参考訳(メタデータ) (2022-03-08T15:46:52Z) - A Survey on Methods and Metrics for the Assessment of Explainability
under the Proposed AI Act [2.294014185517203]
この研究は、そのようなメトリクスがAI法へのコンプライアンスを容易にするために持つべき要件を特定する。
我々の分析は、提案されたAI法によって支持される説明可能性を測定するためのメトリクスは、リスクに焦点をあて、モデルに依存しず、目標を意識し、理解され、アクセス可能であることを示唆している。
論文 参考訳(メタデータ) (2021-10-21T14:27:24Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Towards Increasing Trust In Expert Evidence Derived From Malware
Forensic Tools [0.0]
法科学レギュレータの職は2008年に創設された。
これを達成するために展開された重要な戦略の1つは、法医学の様々な分野において、より高度な科学的行為を取り入れようとしていることである。
現在、イングランドとウェールズの刑事司法制度を継続するために、実践者が認定される法的な要件は存在しない。
法科学レギュレータは、英国政府にこれを義務付けるようロビー活動を行っている。
論文 参考訳(メタデータ) (2020-10-14T16:01:53Z) - Authorized and Unauthorized Practices of Law: The Role of Autonomous
Levels of AI Legal Reasoning [0.0]
法分野は、認可された法律実務(APL)と無認可の法律実務(UPL)を定義することを目指している。
本稿では,AILR自律レベルに適用する上で,APLとUPLの基盤となる重要な特徴を記述した新たなインスツルメンタルグリッドについて検討する。
論文 参考訳(メタデータ) (2020-08-19T18:35:58Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。