論文の概要: Artificial intelligence in government: Concepts, standards, and a
unified framework
- arxiv url: http://arxiv.org/abs/2210.17218v1
- Date: Mon, 31 Oct 2022 10:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:52:19.465927
- Title: Artificial intelligence in government: Concepts, standards, and a
unified framework
- Title(参考訳): 政府における人工知能:概念、標準、統一された枠組み
- Authors: Vincent J. Straub, Deborah Morgan, Jonathan Bright and Helen Margetts
- Abstract要約: 概念マッピングを用いて、AIの多分野研究で使用される107の異なる用語を識別する。
我々は,AIベースの政府向けシステム(AI-GOV)を統合的で先進的な方法で研究するための,新しい3つの多面的概念を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in artificial intelligence (AI) and machine learning (ML)
hold the promise of improving government. Given the advanced capabilities of AI
applications, it is critical that these are embedded using standard operational
procedures, clear epistemic criteria, and behave in alignment with the
normative expectations of society. Scholars in multiple domains have
subsequently begun to conceptualize the different forms that AI systems may
take, highlighting both their potential benefits and pitfalls. However, the
literature remains fragmented, with researchers in social science disciplines
like public administration and political science, and the fast-moving fields of
AI, ML, and robotics, all developing concepts in relative isolation. Although
there are calls to formalize the emerging study of AI in government, a balanced
account that captures the full breadth of theoretical perspectives needed to
understand the consequences of embedding AI into a public sector context is
lacking. Here, we unify efforts across social and technical disciplines by
using concept mapping to identify 107 different terms used in the
multidisciplinary study of AI. We inductively sort these into three distinct
semantic groups, which we label the (a) operational, (b) epistemic, and (c)
normative domains. We then build on the results of this mapping exercise by
proposing three new multifaceted concepts to study AI-based systems for
government (AI-GOV) in an integrated, forward-looking way, which we call (1)
operational fitness, (2) epistemic completeness, and (3) normative salience.
Finally, we put these concepts to work by using them as dimensions in a
conceptual typology of AI-GOV and connecting each with emerging AI technical
measurement standards to encourage operationalization, foster
cross-disciplinary dialogue, and stimulate debate among those aiming to reshape
public administration with AI.
- Abstract(参考訳): 人工知能(AI)と機械学習(ML)の最近の進歩は、政府の改善を約束している。
aiアプリケーションの高度な能力を考えると、これらは標準的な操作手順、明確な認識基準、社会の規範的な期待に沿って振る舞うことが重要である。
複数のドメインの学者はその後、AIシステムが持つさまざまなフォームを概念化し始め、潜在的なメリットと落とし穴の両方を強調した。
しかし、この文献は依然として断片化されており、公共行政や政治科学といった社会科学の分野の研究者、そしてAI、ML、ロボット工学の速い動きの分野は、いずれも相対的な分離の概念を発展させている。
政府におけるAIの新たな研究の形式化を求める声もあるが、公的なセクターにAIを組み込む結果を理解するために必要な理論的な視点の広さを捉えたバランスの取れた説明が欠けている。
本稿では,aiの多分野研究で使用される107の異なる用語を概念マッピングを用いて識別することにより,社会・技術分野間の取り組みを統一する。
我々はこれらを3つの異なる意味群に誘導的に分類し、それをラベル付けします。
a) 運用中
(b)認識論、及び
(c)規範ドメイン。
そこで我々は,(1)運用適合性,(2)エピステミック完全性,(3)規範的サリエンスという,AIベースの政府向けシステム(AI-GOV)を総合的に研究するための,新たな3つの多面的概念を提案することにより,このマッピング演習の結果に基づいて構築する。
最後に、これらの概念をAI-GOVの概念的類型論の次元として使用し、それぞれを新たなAI技術測定標準と結びつけて、運用の促進、学際的対話の促進、AIによる公共行政の再構築を目指す人々の間での議論の激化を図った。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - A call for embodied AI [0.8242650459951482]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - AI for social science and social science of AI: A Survey [47.5235291525383]
人工知能の最近の進歩は、人工知能の可能性を再考するきっかけとなった。
AIの人間的能力の増大は、社会科学研究にも注目されている。
論文 参考訳(メタデータ) (2024-01-22T10:57:09Z) - Is AI Changing the Rules of Academic Misconduct? An In-depth Look at
Students' Perceptions of 'AI-giarism' [0.0]
本研究は,AIと盗作を包含する学問的不正行為の創発的形態である,AI-giarismに対する学生の認識を探求する。
この発見は、AIコンテンツ生成に対する明確な不承認を伴う、複雑な理解の風景を描いている。
この研究は、学術、政策立案、そして教育におけるAI技術のより広範な統合に関する重要な洞察を提供する。
論文 参考訳(メタデータ) (2023-06-06T02:22:08Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。