論文の概要: Dutch Comfort: The limits of AI governance through municipal registers
- arxiv url: http://arxiv.org/abs/2109.02944v1
- Date: Tue, 7 Sep 2021 08:57:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 20:49:57.950956
- Title: Dutch Comfort: The limits of AI governance through municipal registers
- Title(参考訳): オランダの快適性: 自治体登録によるaiガバナンスの限界
- Authors: Corinne Cath (1) and Fieke Jansen (2) ((1) Oxford Internet Institute
University of Oxford, (2) Data Justice Lab Cardiff University)
- Abstract要約: 我々はルチアーノ・フロリディ教授の最近の編集書簡「AI as a public service: Learning from Amsterdam and Helsinki」に答える。
私たちが疑問視している自動システムのガバナンスモデルとして、AIレジスタについて、多くの仮定があります。
市町村管理におけるAIシステムの役割について,これらの登録簿から多くを学ぶことができるとFloridi氏に同意する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this commentary, we respond to a recent editorial letter by Professor
Luciano Floridi entitled 'AI as a public service: Learning from Amsterdam and
Helsinki'. Here, Floridi considers the positive impact of these municipal AI
registers, which collect a limited number of algorithmic systems used by the
city of Amsterdam and Helsinki. There are a number of assumptions about AI
registers as a governance model for automated systems that we seek to question.
Starting with recent attempts to normalize AI by decontextualizing and
depoliticizing it, which is a fraught political project that encourages what we
call 'ethics theater' given the proven dangers of using these systems in the
context of the digital welfare state. We agree with Floridi that much can be
learned from these registers about the role of AI systems in municipal city
management. Yet, the lessons we draw, on the basis of our extensive
ethnographic engagement with digital well-fare states are distinctly less
optimistic.
- Abstract(参考訳): この注釈書では、ルチアーノ・フロリディ教授の最近の編集書簡「AI as a public service: Learning from Amsterdam and Helsinki」に回答する。
ここでフロリディは、アムステルダム市とヘルシンキ市が使用する限られた数のアルゴリズムシステムを収集するこれらの都市aiレジスターのポジティブな影響を考察している。
私たちが疑問に思う自動システムのガバナンスモデルとして、aiレジスタに関する多くの仮定があります。
デジタル福祉国家の文脈でこれらのシステムを使うことの危険性が証明されたことから、私たちが「倫理劇場」と呼ぶものを奨励するフラッドな政治プロジェクトである。
市町村管理におけるAIシステムの役割について,これらの登録簿から多くを学ぶことができるとFloridi氏に同意する。
しかし、デジタルウェルフェイル状態との広範な民族誌的関与に基づいて、私たちが学んだ教訓は、明らかに楽観的ではない。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - AI and Core Electoral Processes: Mapping the Horizons [3.420467786581458]
我々は,AI活用の可能性を秘めた,中核的な選挙プロセスにおける5つの代表的な道について検討する。
これら5つの道は、有権者リストの維持、投票ブースの位置の決定、投票ブース保護プロセス、投票者認証、選挙のビデオ監視である。
論文 参考訳(メタデータ) (2023-02-07T22:06:24Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Think About the Stakeholders First! Towards an Algorithmic Transparency
Playbook for Regulatory Compliance [14.043062659347427]
世界中の政府によって、公共および民間セクターに導入された人工知能(AI)システムを規制するための法律が提案され、可決されている。
これらの規則の多くは、AIシステムの透明性と、関連する市民意識の問題に対処している。
我々は,透明で規制に適合したシステムを設計する上で,技術者を支援する新たな利害関係者優先のアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-10T09:39:00Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。