論文の概要: 'Team-in-the-loop' organisational oversight of high-stakes AI
- arxiv url: http://arxiv.org/abs/2303.14007v1
- Date: Fri, 24 Mar 2023 14:01:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 14:20:34.913708
- Title: 'Team-in-the-loop' organisational oversight of high-stakes AI
- Title(参考訳): チーム・イン・ザ・ループ」によるハイリスクAIの組織的監視
- Authors: Deborah Morgan, Youmna Hashem, Vincent J. Straub, Jonathan Bright
- Abstract要約: 本稿では,制度分析による臨床意思決定の監督に対するAIの影響について考察する。
既存の監視は、専門的なトレーニング要件の中でネストされており、説明や質問に大きく依存しています。
我々は、ハイテイクな公共セクター展開において、AIの採用に必要なシステムレベルの分析を概念化するために、より広範な 'team-in-the-loop' レンズを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oversight is rightly recognised as vital within high-stakes public sector AI
applications, where decisions can have profound individual and collective
impacts. Much current thinking regarding forms of oversight mechanisms for AI
within the public sector revolves around the idea of human decision makers
being 'in-the-loop' and thus being able to intervene to prevent errors and
potential harm. However, in a number of high-stakes public sector contexts,
operational oversight of decisions is made by expert teams rather than
individuals. The ways in which deployed AI systems can be integrated into these
existing operational team oversight processes has yet to attract much
attention. We address this gap by exploring the impacts of AI upon pre-existing
oversight of clinical decision-making through institutional analysis. We find
that existing oversight is nested within professional training requirements and
relies heavily upon explanation and questioning to elicit vital information.
Professional bodies and liability mechanisms also act as additional levers of
oversight. These dimensions of oversight are impacted, and potentially
reconfigured, by AI systems. We therefore suggest a broader lens of
'team-in-the-loop' to conceptualise the system-level analysis required for
adoption of AI within high-stakes public sector deployment.
- Abstract(参考訳): 監視は、意思決定が個人的および集団的な影響をもたらす高リスクの公共部門aiアプリケーションにおいて不可欠であると正しく認識されている。
公共部門におけるaiの監視メカニズムの形式に関する最近の多くの考え方は、人間の意思決定者が「ループ内」であり、エラーや潜在的な危害を防ぐために介入できるという考えに起因している。
しかし、多くの公共セクターの文脈では、個人ではなく専門家チームによって意思決定の運用上の監督が行われる。
デプロイされたaiシステムを既存の運用チームの監視プロセスに統合する方法は、まだ大きな注目を集めていない。
我々は、制度分析を通じて、臨床意思決定の事前監視に対するAIの影響を探ることで、このギャップに対処する。
既存の監視は専門家のトレーニング要件に埋もれており、重要な情報を引き出すための説明と質問に大きく依存しています。
専門的な身体と責任のメカニズムは、監視のさらなるレバーとしても機能する。
これらの監視の次元は、AIシステムによって影響を受け、再構成される可能性がある。
そこで我々は,公共部門展開におけるai導入に必要なシステムレベルの分析を概念化するために,より広い範囲の「チーム・イン・ザ・ループ」のレンズを提案する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Multi-AI Complex Systems in Humanitarian Response [0.0]
比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
論文 参考訳(メタデータ) (2022-08-24T03:01:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。