論文の概要: On the Quest for Effectiveness in Human Oversight: Interdisciplinary Perspectives
- arxiv url: http://arxiv.org/abs/2404.04059v2
- Date: Tue, 7 May 2024 14:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 19:03:36.698893
- Title: On the Quest for Effectiveness in Human Oversight: Interdisciplinary Perspectives
- Title(参考訳): 人間の見地における有効性の探求--学際的視点から
- Authors: Sarah Sterz, Kevin Baum, Sebastian Biewer, Holger Hermanns, Anne Lauber-Rönsberg, Philip Meinel, Markus Langer,
- Abstract要約: 人間の監視は、現在、リスクの高いAIアプリケーションの負の側面に対処するための潜在的な保護として議論されている。
本稿では,心理学的,法学的,哲学的,技術的領域から洞察を合成し,効果的な人間の監視について検討する。
- 参考スコア(独自算出の注目度): 1.29622145730471
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human oversight is currently discussed as a potential safeguard to counter some of the negative aspects of high-risk AI applications. This prompts a critical examination of the role and conditions necessary for what is prominently termed effective or meaningful human oversight of these systems. This paper investigates effective human oversight by synthesizing insights from psychological, legal, philosophical, and technical domains. Based on the claim that the main objective of human oversight is risk mitigation, we propose a viable understanding of effectiveness in human oversight: for human oversight to be effective, the oversight person has to have (a) sufficient causal power with regard to the system and its effects, (b) suitable epistemic access to relevant aspects of the situation, (c) self-control, and (d) fitting intentions for their role. Furthermore, we argue that this is equivalent to saying that an oversight person is effective if and only if they are morally responsible and have fitting intentions. Against this backdrop, we suggest facilitators and inhibitors of effectiveness in human oversight when striving for practical applicability. We discuss factors in three domains, namely, the technical design of the system, individual factors of oversight persons, and the environmental circumstances in which they operate. Finally, this paper scrutinizes the upcoming AI Act of the European Union -- in particular Article 14 on Human Oversight -- as an exemplary regulatory framework in which we study the practicality of our understanding of effective human oversight. By analyzing the provisions and implications of the European AI Act proposal, we pinpoint how far that proposal aligns with our analyses regarding effective human oversight as well as how it might get enriched by our conceptual understanding of effectiveness in human oversight.
- Abstract(参考訳): 人間の監視は、現在、リスクの高いAIアプリケーションの負の側面に対処するための潜在的な保護として議論されている。
このことは、これらのシステムの効果的または有意義な人的監督と称されるものに必要な役割と条件を批判的に検討するきっかけとなる。
本稿では,心理学的,法学的,哲学的,技術的領域から洞察を合成し,効果的な人間の監視について検討する。
人的監視の主目的がリスク軽減であるという主張に基づいて、人間的監視における有効性についての現実的な理解を提案する:人的監視が効果的であるためには、人的監視者が持つ必要がある。
a)システムとその効果に関する十分な因果力
b) 状況の関連面への適切なてんかんアクセス
(c)自己制御,及び
(d)彼らの役割にふさわしい意図。
さらに、このことは、道徳的に責任を持ち、意図に相応しい場合に限って、監督的な人物が効果的であると言うことと等価である、と論じる。
このような背景から,実用化に向けて努力する際,ヒトの監視に有効なファシリテーターや阻害剤を提案する。
本稿では,3つの領域,すなわちシステムの技術的設計,監視対象の個別要因,運用する環境条件について論じる。
最後に,欧州連合の今後のAI法(特に人的監督に関する第14条)を,効果的な人的監督の理解の実践性を研究するための模範的な規制枠組みとして精査する。
欧州AI法(European AI Act)の提案の条項と含意を分析することで、提案が効果的な人間の監視に関する我々の分析と、それが人間の監視における有効性の概念的理解によってどのように豊かになるかについて、どこまで一致しているかを見極めることができる。
関連論文リスト
- Learning to Assist Humans without Inferring Rewards [65.28156318196397]
我々は、エンパワーメントのレンズを通して支援を研究する先行研究に基づいて構築する。
補助剤は、人間の行動の影響を最大化することを目的としている。
これらの表現は、先行研究と類似したエンパワーメントの概念を推定する。
論文 参考訳(メタデータ) (2024-11-04T21:31:04Z) - To Err Is AI! Debugging as an Intervention to Facilitate Appropriate Reliance on AI Systems [11.690126756498223]
最適な人間とAIのコラボレーションのためのビジョンは、人間のAIシステムへの「適切な依存」を必要とする。
実際には、アウト・オブ・ディストリビューションデータにおける機械学習モデルの性能格差は、データセット固有のパフォーマンスフィードバックを信頼できないものにしている。
論文 参考訳(メタデータ) (2024-09-22T09:43:27Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Human Oversight of Artificial Intelligence and Technical Standardisation [0.0]
AIのグローバルガバナンスの中で、人間の監視の要件は、いくつかの規制形式に具体化されている。
そのため、欧州連合(EU)の立法府は、人間の監督に対する法的要件を「取り除く」ために、過去よりもはるかに進んでいる。
AI意思決定プロセスにおける人間の位置に関する疑問は、特に注目されるべきである。
論文 参考訳(メタデータ) (2024-07-02T07:43:46Z) - ConSiDERS-The-Human Evaluation Framework: Rethinking Human Evaluation for Generative Large Language Models [53.00812898384698]
生成型大規模言語モデル(LLM)の人間による評価は多分野にわたる作業であるべきだと論じる。
認知バイアスが、流動的な情報や真理をいかに説明するか、そして、認識の不確実性が、Likertのような評価スコアの信頼性にどのように影響するかを強調します。
本稿では,ConSiDERS-The-Human評価フレームワークを提案する。一貫性,スコーリング基準,差別化,ユーザエクスペリエンス,責任,スケーラビリティの6つの柱からなる。
論文 参考訳(メタデータ) (2024-05-28T22:45:28Z) - Towards Human-centered Proactive Conversational Agents [60.57226361075793]
積極的システムと反応性システムの区別は、積極的システムのイニシアティブな性質にある。
我々は,人間中心型PCAの3つの重要な側面,すなわち知性,適応性,市民性に関する新たな分類法を確立する。
論文 参考訳(メタデータ) (2024-04-19T07:14:31Z) - Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Planning for Proactive Assistance in Environments with Partial
Observability [26.895668587111757]
本稿では,人間に積極的なタスク支援を提供するAIエージェントの動作を合成する問題に対処する。
エージェントは、援助が彼女のタスクにどのように影響するかを人間が認識していることを保証することが重要です。
論文 参考訳(メタデータ) (2021-05-02T18:12:06Z) - Avoiding Improper Treatment of Persons with Dementia by Care Robots [1.5156879440024376]
特に、認知症に影響を及ぼす潜在的な危険を探索することに焦点をあてる。
本稿では,豊富な因果モデルと説明責任尺度を含む提案手法について述べる。
我々の狙いは、PWDにおける幸福を支えることを目的としたケアロボットの設計に、この考えが役立つことである。
論文 参考訳(メタデータ) (2020-05-08T14:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。