論文の概要: Reconciling Governmental Use of Online Targeting With Democracy
- arxiv url: http://arxiv.org/abs/2306.01479v1
- Date: Fri, 2 Jun 2023 12:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 15:16:17.889967
- Title: Reconciling Governmental Use of Online Targeting With Democracy
- Title(参考訳): オンラインターゲティングの政府利用と民主主義
- Authors: Katja Andric and Atoosa Kasirzadeh
- Abstract要約: 本稿では,政府によるオンラインターゲティングの社会的・政治的意義について考察する。
我々は、この慣行が民主主義の理想を損なうと論じ、三つの主要な懸念を抱いている。
これらの懸念に対処するため、AIガバナンスフレームワークの予備的な青写真を紹介した。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The societal and epistemological implications of online targeted advertising
have been scrutinized by AI ethicists, legal scholars, and policymakers alike.
However, the government's use of online targeting and its consequential
socio-political ramifications remain under-explored from a critical
socio-technical standpoint. This paper investigates the socio-political
implications of governmental online targeting, using a case study of the UK
government's application of such techniques for public policy objectives. We
argue that this practice undermines democratic ideals, as it engenders three
primary concerns -- Transparency, Privacy, and Equality -- that clash with
fundamental democratic doctrines and values. To address these concerns, the
paper introduces a preliminary blueprint for an AI governance framework that
harmonizes governmental use of online targeting with certain democratic
principles. Furthermore, we advocate for the creation of an independent,
non-governmental regulatory body responsible for overseeing the process and
monitoring the government's use of online targeting, a critical measure for
preserving democratic values.
- Abstract(参考訳): オンラインターゲット広告の社会的および認識学的意味は、AI倫理学者、法学者、政策立案者らによって精査されている。
しかし、政府によるオンラインターゲティングの使用とそれに伴う社会・政治の分岐は、批判的な社会技術的観点からは未検討のままである。
本稿では、政府によるオンラインターゲティングの社会的・政治的意義について、英国政府の公共政策目的への適用事例を用いて検討する。
このプラクティスは、根本的な民主的教義や価値観と衝突する3つの主要な関心事である透明性、プライバシ、平等を包含するので、民主的理想を損なうと我々は主張する。
これらの懸念に対処するため、ある民主的原則と政府によるオンラインターゲティングの利用を調和させるAIガバナンスフレームワークの予備的青写真を紹介した。
さらに、我々は、民主的価値を維持するための重要な手段である、政府によるオンラインターゲティングの使用を監督し、監視する責任を負う独立した非政府規制機関の創設を提唱する。
関連論文リスト
- Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - On the Use of Proxies in Political Ad Targeting [49.61009579554272]
我々は、主要な政治広告主がプロキシ属性をターゲットとして緩和を回避したことを示す。
本研究は政治広告の規制に関する議論に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-18T17:15:13Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Public Constitutional AI [0.0]
AI当局の権限はますます強まりつつある。
AIシステムが効果的なガバナンスに必要な正当性を確保するには、どうすればいいのか?
このエッセイは、AIの正当性を確保するためには、AIシステムの設計と制約に一般市民が関与する方法が必要である、と論じている。
論文 参考訳(メタデータ) (2024-06-24T15:00:01Z) - Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference [11.323961700172175]
本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
論文 参考訳(メタデータ) (2024-06-04T00:26:12Z) - Legitimate Power, Illegitimate Automation: The problem of ignoring legitimacy in automated decision systems [0.0]
機械学習と人工知能が自動意思決定システム(ADS)の普及を加速させた
この論文は、理論家はしばしば、公正性、正確性、専門性、あるいは効率性といった他の実体的価値と誤って正当性を区別していることを示している。
論文 参考訳(メタデータ) (2024-04-24T06:29:54Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Entity Graph Extraction from Legal Acts -- a Prototype for a Use Case in
Policy Design Analysis [52.77024349608834]
本稿では,公共政策設計の定量的研究を支援するために開発されたプロトタイプについて述べる。
本システムの目的は,法律文書の収集プロセスの自動化,機関文法の注釈付け,ハイパーグラフによる重要機関間の相互関係の分析である。
論文 参考訳(メタデータ) (2022-09-02T10:57:47Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Political Propagation of Social Botnets: Policy Consequences [0.0]
2016年のアメリカ合衆国大統領選挙は、敵国による選挙介入がソフトウェアロボットとデータ駆動通信を広範囲に利用した、水没した出来事だった。
社会ボットネットの利用による政策効果を反映し、敵の行動の影響を理解する。
今後の研究のためには,これらのソフトウェアロボットのエージェントと集合的特性を理解することが重要である。
論文 参考訳(メタデータ) (2022-05-10T12:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。