論文の概要: Needs-aware Artificial Intelligence: AI that 'serves [human] needs'
- arxiv url: http://arxiv.org/abs/2202.04977v1
- Date: Thu, 10 Feb 2022 12:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-12 01:06:10.623040
- Title: Needs-aware Artificial Intelligence: AI that 'serves [human] needs'
- Title(参考訳): ニーズを認識できる人工知能:「人間のニーズを満たす」ai
- Authors: Ryan Watkins and Soheil Human
- Abstract要約: 多くの境界は人工知能(AI)の未来を形作っている。
前進するためにこれらの境界を推し進めるが、それらは信頼性と弾力性の両方がある。
この最終カテゴリではありますが、ニーズの構成と、現在のニーズ場所という概念が将来のAIに持つ制限が、他のすべてのバウンダリにおいて基本的な役割を果たすことができます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many boundaries are, and will continue to, shape the future of Artificial
Intelligence (AI). We push on these boundaries in order to make progress, but
they are both pliable and resilient--always creating new boundaries of what AI
can (or should) achieve. Among these are technical boundaries (such as
processing capacity), psychological boundaries (such as human trust in AI
systems), ethical boundaries (such as with AI weapons), and conceptual
boundaries (such as the AI people can imagine). It is within this final
category while it can play a fundamental role in all other boundaries} that we
find the construct of needs and the limitations that our current concept of
need places on the future AI.
- Abstract(参考訳): 多くの境界は、人工知能(ai)の未来を形作るものであり、今後も続くだろう。
前進するためにこれらのバウンダリを推し進めるが、それらは信頼性と弾力性の両方で、AIが達成できる(あるいはすべき)ことの新たなバウンダリを作り出す。
その中には、技術的境界(処理能力など)、心理的境界(AIシステムに対する人間の信頼など)、倫理的境界(AI兵器など)、概念的境界(AI人々が想像できるようなもの)などがある。
ニーズの構成と、現在のニーズの概念が将来のaiに当てはまる制限を見つけることは、他のすべての境界において基本的な役割を果たすことができる一方で、この最終カテゴリ内にあります。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Close the Gates: How we can keep the future human by choosing not to develop superhuman general-purpose artificial intelligence [0.20919309330073077]
今後数年で、人類は汎用AIを作成することによって、不可逆的にしきい値を越えるかもしれない。
これは、人間の社会の中核的な側面を上回り、多くの前例のないリスクを生じさせ、いくつかの意味で制御不能になる可能性がある。
まず、ニューラルネットワークのトレーニングと実行に使用できる計算に厳しい制限を課すことから始めます。
こうした制限がある中で、AIの研究と産業は、人間が理解し制御できる狭義の汎用AIと、そこから大きな利益を享受することのできる汎用AIの両方に焦点を絞ることができる。
論文 参考訳(メタデータ) (2023-11-15T23:41:12Z) - ChatGPT, Large Language Technologies, and the Bumpy Road of Benefiting
Humanity [2.28438857884398]
AI技術がすべての人類に利益をもたらすという約束は、人類が世界的不平等を拡大し、実在の脅威を迫られる状況に直面していると想定されていることの、微妙な理解が欠如している限り、空白である。
我々はまた、単に投機的な質問とよく調査された質問を区別する、持続的で公平な方法で標準を開発する必要がある。
このような失敗は、私たちのAI技術の進歩が、倫理的および社会的意味をナビゲートする能力を上回る未来をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-04-21T22:53:45Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Unpacking the "Black Box" of AI in Education [0.0]
われわれは,「AI」とは何か,それが人間の状態を改善する教育機会の進展と妨げに持つ可能性を明らかにすることを目指している。
我々は、AIを支える様々な方法と哲学の基礎的な紹介、最近の進歩について議論、教育への応用を探究し、重要な制限とリスクを強調します。
教育における人間中心のAIの発展を理解し、尋問し、最終的に形作ることができるように、ジャーゴンの言葉や概念をしばしば利用できるようにすることを願っています。
論文 参考訳(メタデータ) (2022-12-31T18:27:21Z) - Needs and Artificial Intelligence [0.0]
我々は、ニーズとAIの関係を反映し、ニーズを意識したAIシステムの実現を求める。
我々は、未来のAIベースの社会技術システムを共同開発する上で、最も重要なギャップ、障壁、イネーブラー、ドライバについて論じる。
論文 参考訳(メタデータ) (2022-02-18T15:16:22Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。