論文の概要: Human-Centered Artificial Intelligence: Reliable, Safe & Trustworthy
- arxiv url: http://arxiv.org/abs/2002.04087v2
- Date: Sun, 23 Feb 2020 19:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:17:29.308209
- Title: Human-Centered Artificial Intelligence: Reliable, Safe & Trustworthy
- Title(参考訳): 人間中心の人工知能:信頼性、安全、信頼に値する
- Authors: Ben Shneiderman
- Abstract要約: Human-Centered Artificial Intelligence (HCAI)フレームワークは、高いレベルの人間の制御と高いレベルのコンピュータ自動化のために設計する方法を明確にする。
HCAIの手法は、信頼性、安全性、信頼性(RST)の高い設計を作成する可能性が高い。
- 参考スコア(独自算出の注目度): 4.378048841422574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Well-designed technologies that offer high levels of human control and high
levels of computer automation can increase human performance, leading to wider
adoption. The Human-Centered Artificial Intelligence (HCAI) framework clarifies
how to (1) design for high levels of human control and high levels of computer
automation so as to increase human performance, (2) understand the situations
in which full human control or full computer control are necessary, and (3)
avoid the dangers of excessive human control or excessive computer control. The
methods of HCAI are more likely to produce designs that are Reliable, Safe &
Trustworthy (RST). Achieving these goals will dramatically increase human
performance, while supporting human self-efficacy, mastery, creativity, and
responsibility.
- Abstract(参考訳): 高いレベルの人間制御と高いレベルのコンピュータ自動化を提供するよく設計された技術は、人間のパフォーマンスを増加させ、より広く採用される。
human-centered artificial intelligence(hcai)フレームワークは、(1)高いレベルの人間制御と高いレベルのコンピュータ自動化の設計により、人間のパフォーマンスを向上させる方法、(2)完全な人間制御や完全なコンピュータ制御が必要である状況を理解すること、(3)過剰な人間制御や過度のコンピュータ制御の危険性を避ける方法を明確にする。
HCAIの手法は、信頼性、安全、信頼に値する設計(RST)を作成する可能性が高い。
これらの目標を達成することで、人間の自己効力、熟達、創造性、責任をサポートしながら、人間のパフォーマンスが劇的に向上します。
関連論文リスト
- Aligning Generalisation Between Humans and Machines [74.120848518198]
近年のAIの進歩は、科学的発見と意思決定支援において人間を支援できる技術をもたらしたが、民主主義と個人を妨害する可能性がある。
AIの責任ある使用は、ますます人間とAIのチームの必要性を示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Human-AI Safety: A Descendant of Generative AI and Control Systems Safety [6.100304850888953]
先進的なAI技術に対する有意義な安全性保証には、AI出力と人間の振る舞いによって形成されるフィードバックループが、どのようにして異なる結果に向かって相互作用を駆動するかについての推論が必要である、と我々は主張する。
我々は、次世代の人間中心AI安全性に向けた具体的な技術ロードマップを提案する。
論文 参考訳(メタデータ) (2024-05-16T03:52:00Z) - The Rise of the AI Co-Pilot: Lessons for Design from Aviation and Beyond [22.33734581699234]
我々は、AIが単なるツールではなく、人間の指導の下で働く共同パイロットと見なされるパラダイムを提唱する。
本稿では,AIパートナーシップにおけるアクティブな人間の関与,制御,スキル向上を重視したデザインアプローチを提案する。
論文 参考訳(メタデータ) (2023-11-16T13:58:15Z) - Close the Gates: How we can keep the future human by choosing not to develop superhuman general-purpose artificial intelligence [0.20919309330073077]
今後数年で、人類は汎用AIを作成することによって、不可逆的にしきい値を越えるかもしれない。
これは、人間の社会の中核的な側面を上回り、多くの前例のないリスクを生じさせ、いくつかの意味で制御不能になる可能性がある。
まず、ニューラルネットワークのトレーニングと実行に使用できる計算に厳しい制限を課すことから始めます。
こうした制限がある中で、AIの研究と産業は、人間が理解し制御できる狭義の汎用AIと、そこから大きな利益を享受することのできる汎用AIの両方に焦点を絞ることができる。
論文 参考訳(メタデータ) (2023-11-15T23:41:12Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Meaningful human control over AI systems: beyond talking the talk [8.351027101823705]
私たちは、AIベースのシステムが有意義な人間の制御下にある必要がある4つの特性を特定します。
第一に、人間とAIアルゴリズムが相互作用するシステムは、道徳的にロードされた状況の明確に定義された領域を持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
論文 参考訳(メタデータ) (2021-11-25T11:05:37Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。