論文の概要: Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable
- arxiv url: http://arxiv.org/abs/2012.06058v1
- Date: Fri, 11 Dec 2020 00:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 11:05:46.595233
- Title: Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable
- Title(参考訳): 次の波の人工知能:堅牢、説明可能、適応可能、倫理的、説明責任
- Authors: Odest Chadwicke Jenkins, Daniel Lopresti, and Melanie Mitchell
- Abstract要約: ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
- 参考スコア(独自算出の注目度): 5.4138734778206
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The history of AI has included several "waves" of ideas. The first wave, from
the mid-1950s to the 1980s, focused on logic and symbolic hand-encoded
representations of knowledge, the foundations of so-called "expert systems".
The second wave, starting in the 1990s, focused on statistics and machine
learning, in which, instead of hand-programming rules for behavior, programmers
constructed "statistical learning algorithms" that could be trained on large
datasets. In the most recent wave research in AI has largely focused on deep
(i.e., many-layered) neural networks, which are loosely inspired by the brain
and trained by "deep learning" methods. However, while deep neural networks
have led to many successes and new capabilities in computer vision, speech
recognition, language processing, game-playing, and robotics, their potential
for broad application remains limited by several factors.
A concerning limitation is that even the most successful of today's AI
systems suffer from brittleness-they can fail in unexpected ways when faced
with situations that differ sufficiently from ones they have been trained on.
This lack of robustness also appears in the vulnerability of AI systems to
adversarial attacks, in which an adversary can subtly manipulate data in a way
to guarantee a specific wrong answer or action from an AI system. AI systems
also can absorb biases-based on gender, race, or other factors-from their
training data and further magnify these biases in their subsequent
decision-making. Taken together, these various limitations have prevented AI
systems such as automatic medical diagnosis or autonomous vehicles from being
sufficiently trustworthy for wide deployment. The massive proliferation of AI
across society will require radically new ideas to yield technology that will
not sacrifice our productivity, our quality of life, or our values.
- Abstract(参考訳): AIの歴史には、いくつかの"波"のアイデアが含まれている。
1950年代半ばから1980年代にかけての最初の波は、知識の論理と記号的手書き表現、いわゆる「エキスパートシステム」の基礎に焦点を当てていた。
第2の波は1990年代に始まり、統計と機械学習に焦点を当て、プログラマは振る舞いのハンドプログラミングのルールの代わりに、大規模なデータセットでトレーニングできる「統計学習アルゴリズム」を構築した。
直近のAIにおける波動研究では、主に深層ニューラルネットワークに焦点を当てており、脳に緩やかにインスパイアされ、「深層学習」の手法で訓練されている。
しかし、ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしているが、幅広い応用の可能性にはいくつかの要因がある。
制限に関して言えば、今日のAIシステムの中でも最も成功したものでさえ不安定性に悩まされ、トレーニングされたシステムと十分に異なる状況に直面した場合に予期せぬ方法で失敗する可能性があるということです。
この堅牢性の欠如は、敵対的な攻撃に対するAIシステムの脆弱性にも現れ、敵はAIシステムから特定の間違った回答やアクションを保証する方法でデータを微妙に操作することができる。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
これらさまざまな制限が組み合わさって、自動医療診断や自動運転車のようなaiシステムが幅広い展開に十分な信頼を持てなくなった。
社会全体のAIの急増は、我々の生産性や生活の質、価値観を犠牲にしない技術を生み出すために、根本的に新しいアイデアを必要とします。
関連論文リスト
- A Survey on Vision-Language-Action Models for Embodied AI [71.16123093739932]
視覚言語アクションモデル(VLA)はロボット学習の基盤となっている。
汎用性、デキスタリティ、一般化可能性など、様々な手法が提案されている。
VLAは、長い水平タスクを実行可能なサブタスクに分解できるハイレベルなタスクプランナとして機能する。
論文 参考訳(メタデータ) (2024-05-23T01:43:54Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Ten Years after ImageNet: A 360{\deg} Perspective on AI [36.9586431868379]
ニューラルネットワークが壮大な復活を遂げてから10年が経ちます。
人材、コンピューティングリソース、データを管理するBig-TechによるAIの優位性は、極端なAIの分裂につながる可能性がある。
高い期待に応えられず、自動運転車のような旗艦プロジェクトは、新たなAI冬を招きかねない。
論文 参考訳(メタデータ) (2022-10-01T01:41:17Z) - Neurocompositional computing: From the Central Paradox of Cognition to a
new generation of AI systems [120.297940190903]
AIの最近の進歩は、限られた形態のニューロコンフォメーションコンピューティングの使用によってもたらされている。
ニューロコンポジションコンピューティングの新しい形式は、より堅牢で正確で理解しやすいAIシステムを生み出します。
論文 参考訳(メタデータ) (2022-05-02T18:00:10Z) - Thinking Fast and Slow in AI: the Role of Metacognition [35.114607887343105]
最先端のAIには、(人間)インテリジェンスの概念に自然に含まれる多くの能力がない。
私たちは、人間がこれらの能力を持つことができるメカニズムをよりよく研究することで、これらの能力でAIシステムを構築する方法を理解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-05T06:05:38Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。