論文の概要: 'Team-in-the-loop' organisational oversight of high-stakes AI
- arxiv url: http://arxiv.org/abs/2303.14007v1
- Date: Fri, 24 Mar 2023 14:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:20:34.913708
- Title: 'Team-in-the-loop' organisational oversight of high-stakes AI
- Title(参考訳): チーム・イン・ザ・ループ」によるハイリスクAIの組織的監視
- Authors: Deborah Morgan, Youmna Hashem, Vincent J. Straub, Jonathan Bright
- Abstract要約: 本稿では,制度分析による臨床意思決定の監督に対するAIの影響について考察する。
既存の監視は、専門的なトレーニング要件の中でネストされており、説明や質問に大きく依存しています。
我々は、ハイテイクな公共セクター展開において、AIの採用に必要なシステムレベルの分析を概念化するために、より広範な 'team-in-the-loop' レンズを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oversight is rightly recognised as vital within high-stakes public sector AI
applications, where decisions can have profound individual and collective
impacts. Much current thinking regarding forms of oversight mechanisms for AI
within the public sector revolves around the idea of human decision makers
being 'in-the-loop' and thus being able to intervene to prevent errors and
potential harm. However, in a number of high-stakes public sector contexts,
operational oversight of decisions is made by expert teams rather than
individuals. The ways in which deployed AI systems can be integrated into these
existing operational team oversight processes has yet to attract much
attention. We address this gap by exploring the impacts of AI upon pre-existing
oversight of clinical decision-making through institutional analysis. We find
that existing oversight is nested within professional training requirements and
relies heavily upon explanation and questioning to elicit vital information.
Professional bodies and liability mechanisms also act as additional levers of
oversight. These dimensions of oversight are impacted, and potentially
reconfigured, by AI systems. We therefore suggest a broader lens of
'team-in-the-loop' to conceptualise the system-level analysis required for
adoption of AI within high-stakes public sector deployment.
- Abstract(参考訳): 監視は、意思決定が個人的および集団的な影響をもたらす高リスクの公共部門aiアプリケーションにおいて不可欠であると正しく認識されている。
公共部門におけるaiの監視メカニズムの形式に関する最近の多くの考え方は、人間の意思決定者が「ループ内」であり、エラーや潜在的な危害を防ぐために介入できるという考えに起因している。
しかし、多くの公共セクターの文脈では、個人ではなく専門家チームによって意思決定の運用上の監督が行われる。
デプロイされたaiシステムを既存の運用チームの監視プロセスに統合する方法は、まだ大きな注目を集めていない。
我々は、制度分析を通じて、臨床意思決定の事前監視に対するAIの影響を探ることで、このギャップに対処する。
既存の監視は専門家のトレーニング要件に埋もれており、重要な情報を引き出すための説明と質問に大きく依存しています。
専門的な身体と責任のメカニズムは、監視のさらなるレバーとしても機能する。
これらの監視の次元は、AIシステムによって影響を受け、再構成される可能性がある。
そこで我々は,公共部門展開におけるai導入に必要なシステムレベルの分析を概念化するために,より広い範囲の「チーム・イン・ザ・ループ」のレンズを提案する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - A Comprehensive Review and Systematic Analysis of Artificial
Intelligence Regulation Policies [1.637145148171519]
我々は、異なる地理的な場所と文化的背景からAI規制の提案を包括的にレビューする。
次に、これらのAI規制提案の体系的な分析を行い、それぞれの提案が失敗する可能性を理解する。
この研究は、AI規制の混乱を解消する組織を、分断的かつコンカレントな方法で管理することを目的としている。
論文 参考訳(メタデータ) (2023-07-23T03:44:03Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Transdisciplinary AI Observatory -- Retrospective Analyses and
Future-Oriented Contradistinctions [22.968817032490996]
本稿では、本質的に学際的なAI観測アプローチの必要性を動機づける。
これらのAI観測ツールに基づいて、我々はAIの安全性に関する短期的な学際的ガイドラインを提示する。
論文 参考訳(メタデータ) (2020-11-26T16:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。