論文の概要: 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI
- arxiv url: http://arxiv.org/abs/2303.14007v2
- Date: Sun, 30 Jun 2024 19:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 18:19:41.189121
- Title: 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI
- Title(参考訳): チーム・イン・ザ・ループ」:OstromのIADフレームワーク「ルール・イン・ユース」でAIの文脈的影響をマップし計測する
- Authors: Deborah Morgan, Youmna Hashem, John Francis, Saba Esnaashari, Vincent J. Straub, Jonathan Bright,
- Abstract要約: この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article explores how the 'rules in use' from Ostrom's Institutional Analysis and Development Framework (IAD) can be developed as a context analysis approach for AI. AI risk assessment frameworks increasingly highlight the need to understand existing contexts. However, these approaches do not frequently connect with established institutional analysis scholarship. We outline a novel direction illustrated through a high-level example to understand how clinical oversight is potentially impacted by AI. Much current thinking regarding oversight for AI revolves around the idea of decision makers being in-the-loop and, thus, having capacity to intervene to prevent harm. However, our analysis finds that oversight is complex, frequently made by teams of professionals and relies upon explanation to elicit information. Professional bodies and liability also function as institutions of polycentric oversight. These are all impacted by the challenge of oversight of AI systems. The approach outlined has potential utility as a policy tool of context analysis aligned with the 'Govern and Map' functions of the National Institute of Standards and Technology (NIST) AI Risk Management Framework; however, further empirical research is needed. Our analysis illustrates the benefit of existing institutional analysis approaches in foregrounding team structures within oversight and, thus, in conceptions of 'human in the loop'.
- Abstract(参考訳): この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
AIリスクアセスメントフレームワークは、既存のコンテキストを理解する必要性をますます強調している。
しかし、これらのアプローチは、確立された機関分析奨学金と頻繁には関係しない。
臨床の監視がAIにどのように影響するかを理解するために、ハイレベルな例を通して示した新しい方向性を概説する。
AIの監視に関する現在の考え方は、意思決定者がループ内にあるという考えを中心に展開されている。
しかし、分析の結果、監視は複雑で、プロのチームによって頻繁に行われ、情報を引き出すための説明に依存していることがわかった。
専門機関と責任は多心的な監視機関としても機能する。
これらはすべて、AIシステムの監視という課題の影響を受けている。
このアプローチは、National Institute of Standards and Technology (NIST) AI Risk Management Frameworkの"Govern and Map"機能に沿ったコンテキスト分析のポリシーツールとして、潜在的に有用である。
本分析は,チーム構造を監視下に構築する上での既存の制度分析手法の利点を示し,その効果を「ループ内の人間」の概念として示す。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - A Comprehensive Review and Systematic Analysis of Artificial
Intelligence Regulation Policies [1.637145148171519]
我々は、異なる地理的な場所と文化的背景からAI規制の提案を包括的にレビューする。
次に、これらのAI規制提案の体系的な分析を行い、それぞれの提案が失敗する可能性を理解する。
この研究は、AI規制の混乱を解消する組織を、分断的かつコンカレントな方法で管理することを目的としている。
論文 参考訳(メタデータ) (2023-07-23T03:44:03Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions [22.968817032490996]
本稿では、本質的に学際的なAI観測アプローチの必要性を動機づける。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
論文 参考訳(メタデータ) (2020-11-26T16:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。