論文の概要: Artificial Intelligence as an Anti-Corruption Tool (AI-ACT) --
Potentials and Pitfalls for Top-down and Bottom-up Approaches
- arxiv url: http://arxiv.org/abs/2102.11567v1
- Date: Tue, 23 Feb 2021 09:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:51:40.014239
- Title: Artificial Intelligence as an Anti-Corruption Tool (AI-ACT) --
Potentials and Pitfalls for Top-down and Bottom-up Approaches
- Title(参考訳): 防食ツールとしての人工知能(AI-ACT) -トップダウンとボトムアップのアプローチの可能性と落とし穴-
- Authors: Nils K\"obis, Christopher Starke, Iyad Rahwan
- Abstract要約: 人工知能(AI)に新しい希望が置かれ、偏見のない腐敗防止剤として機能します。
より利用可能な(オープンな)政府データと前例のないパフォーマンスのアルゴリズムの組み合わせにより、AIは腐敗防止の次のフロンティアとなります。
- 参考スコア(独自算出の注目度): 2.8949975020671497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Corruption continues to be one of the biggest societal challenges of our
time. New hope is placed in Artificial Intelligence (AI) to serve as an
unbiased anti-corruption agent. Ever more available (open) government data
paired with unprecedented performance of such algorithms render AI the next
frontier in anti-corruption. Summarizing existing efforts to use AI-based
anti-corruption tools (AI-ACT), we introduce a conceptual framework to advance
research and policy. It outlines why AI presents a unique tool for top-down and
bottom-up anti-corruption approaches. For both approaches, we outline in detail
how AI-ACT present different potentials and pitfalls for (a) input data, (b)
algorithmic design, and (c) institutional implementation. Finally, we venture a
look into the future and flesh out key questions that need to be addressed to
develop AI-ACT while considering citizens' views, hence putting "society in the
loop".
- Abstract(参考訳): 腐敗は、私たちの時代の最大の社会的課題の1つであり続けています。
人工知能(AI)に新しい希望が置かれ、偏見のない腐敗防止剤として機能します。
より利用可能な(オープンな)政府データと前例のないパフォーマンスのアルゴリズムの組み合わせにより、AIは腐敗防止の次のフロンティアとなります。
AIベースの腐敗防止ツール(AI-ACT)を用いた既存の取り組みを要約し、研究と政策を進めるための概念的枠組みを紹介します。
AIがトップダウンとボトムアップの腐敗防止アプローチのためのユニークなツールを提供する理由を概説します。
いずれのアプローチについても,ai-act が (a) 入力データ, (b) アルゴリズム設計, (c) システム実装に対して,さまざまな可能性と落とし穴をどのように提示するかを概説する。
最後に、我々は、市民の見解を考慮しながらAI-ACTを開発するために対処する必要がある重要な質問を、未来を探求し、さらに「ループの社会性」を見出します。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Rebuilding Trust: Queer in AI Approach to Artificial Intelligence Risk
Management [0.0]
信頼できるAIは、AIシステムとそのクリエイターに対する信頼が失われたり、そもそも存在しないため、重要なトピックになっている。
私たちは、信頼できるAI開発、デプロイメント、監視のフレームワークは、フェミニストと非エクスプロイト的デザインの原則の両方を取り入れなければならないと論じています。
論文 参考訳(メタデータ) (2021-09-21T21:22:58Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。