論文の概要: Automated decision-making and artificial intelligence at European borders and their risks for human rights
- arxiv url: http://arxiv.org/abs/2410.17278v1
- Date: Tue, 08 Oct 2024 13:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:44.678783
- Title: Automated decision-making and artificial intelligence at European borders and their risks for human rights
- Title(参考訳): 欧州国境における意思決定と人工知能の自動化と人権のリスク
- Authors: Yiran Yang, Frederik Zuiderveen Borgesius, Pascal Beckers, Evelien Brouwer,
- Abstract要約: 多くの国では、国境での移動を管理するために自動意思決定(ADM)システムを使用している。
この学際的な論文は、EUの国境で自動意思決定が使われる主な方法と、そうであるならば、どのようなリスクがあるのか、という2つの疑問を探求する。
本稿では,このような自動意思決定のリスク,すなわちプライバシーとデータ保護に関する人権に関するリスク,(2)非差別,(3)公正な裁判と効果的な対策の3つのカテゴリについて論じる。
- 参考スコア(独自算出の注目度): 0.571853823214391
- License:
- Abstract: Many countries use automated decision-making (ADM) systems, often based on artificial intelligence (AI), to manage migration at their borders. This interdisciplinary paper explores two questions. What are the main ways that automated decision-making is used at EU borders? Does such automated decision-making bring risks related to human rights, and if so: which risks? The paper introduces a taxonomy of four types of ADM systems at EU borders. Three types are used at borders: systems for (1) identification and verification by checking biometrics, (2) risk assessment, and (3) border monitoring. In addition, (4) polygraphs and emotion detectors are being tested at EU borders. We discuss three categories of risks of such automated decision-making, namely risks related to the human rights to (1) privacy and data protection, (2) nondiscrimination, and (3) a fair trial and effective remedies. The paper is largely based on a literature review that we conducted about the use of automated decision-making at borders. The paper combines insights from several disciplines, including social sciences, law, computer science, and migration studies.
- Abstract(参考訳): 多くの国では、人工知能(AI)に基づく自動意思決定(ADM)システムを使用して、国境での移動を管理している。
この学際的な論文は2つの疑問を探求する。
EUの国境で自動意思決定が使われる主な方法は何ですか?
このような自動意思決定は人権に関するリスクをもたらすのか、そうであれば、どのようなリスクをもたらすのか?
本稿は、EU境界における4種類のADMシステムの分類について紹介する。
1)バイオメトリックスチェックによる識別・検証システム,(2)リスク評価,(3)バウンダリモニタリングの3つのタイプがバウンダリで使用されている。
さらに、(4)ポリグラフと感情検知器がEUの国境でテストされている。
本稿では,(1)プライバシとデータ保護,(2)非差別,(3)公正なトライアルと効果的な治療に関する人権に関するリスクについて,このような自動意思決定のリスクの3つのカテゴリについて論じる。
本論文は,国境における自動意思決定の利用について実施した文献レビューに基づいている。
この論文は、社会科学、法学、コンピュータ科学、移住研究など、いくつかの分野からの洞察を組み合わせている。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence [35.77247656798871]
人工知能(AI)によって引き起こされるリスクは、学者、監査人、政策立案者、AI企業、そして一般大衆にかなり懸念されている。
AIリスクに対する共通理解の欠如は、包括的に議論し、研究し、それに反応する能力を妨げる可能性がある。
本稿では、共通の参照フレームとして機能するAIリスクリポジトリを作成することで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-08-14T10:32:06Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Risk thresholds for frontier AI [1.053373860696675]
人気が高まっているアプローチの1つは、機能しきい値を定義することである。
リスク閾値は単に、どれだけのリスクが過剰かを記述するだけです。
主な欠点は、信頼性の高い評価が難しいことだ。
論文 参考訳(メタデータ) (2024-06-20T20:16:29Z) - Taxonomy to Regulation: A (Geo)Political Taxonomy for AI Risks and Regulatory Measures in the EU AI Act [0.0]
この研究は、AIに関連する(地質)政治的リスクに焦点を当てた分類法を提案する。
1)地政学的圧力,(2)悪用,(3)環境,社会的,倫理的リスク,(4)プライバシ・トラスト・ヴァイオレーションの4つのカテゴリに分類される。
論文 参考訳(メタデータ) (2024-04-17T15:32:56Z) - The WMDP Benchmark: Measuring and Reducing Malicious Use With Unlearning [87.1610740406279]
ホワイトハウス人工知能に関する大統領令は、生物、サイバー、化学兵器の開発において悪意あるアクターに力を与える大きな言語モデル(LLM)のリスクを強調している。
現在の評価は非公開であり、リスク軽減のさらなる研究を妨げている。
Weapons of Mass Destruction Proxyベンチマークを公開しています。
論文 参考訳(メタデータ) (2024-03-05T18:59:35Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - How to Do It Right: A Framework for Biometrics Supported Border Control [0.606774803674722]
本稿では,国境管理におけるバイオメトリックス技術の利用による倫理的,社会的,法的課題について論じる。
このフレームワークは、国境管理に使用される複数の情報システム間の相互運用性を提供するための緊急の必要性を満たすことが期待されている。
論文 参考訳(メタデータ) (2022-01-10T15:42:10Z) - Ethical and social risks of harm from Language Models [22.964941107198023]
本稿では,大規模言語モデル(LM)に関連するリスクランドスケープの構築を支援することを目的とする。
コンピュータ科学、言語学、社会科学から多分野の専門知識と文献を参考に、幅広い確立と予測されたリスクが詳細に分析されている。
論文 参考訳(メタデータ) (2021-12-08T16:09:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。