論文の概要: Ten Years after ImageNet: A 360{\deg} Perspective on AI
- arxiv url: http://arxiv.org/abs/2210.01797v1
- Date: Sat, 1 Oct 2022 01:41:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:35:44.202951
- Title: Ten Years after ImageNet: A 360{\deg} Perspective on AI
- Title(参考訳): imagenetから10年が経ち、aiに関する360{\deg}の展望
- Authors: Sanjay Chawla and Preslav Nakov and Ahmed Ali and Wendy Hall and Issa
Khalil and Xiaosong Ma and Husrev Taha Sencar and Ingmar Weber and Michael
Wooldridge and Ting Yu
- Abstract要約: ニューラルネットワークが壮大な復活を遂げてから10年が経ちます。
人材、コンピューティングリソース、データを管理するBig-TechによるAIの優位性は、極端なAIの分裂につながる可能性がある。
高い期待に応えられず、自動運転車のような旗艦プロジェクトは、新たなAI冬を招きかねない。
- 参考スコア(独自算出の注目度): 36.9586431868379
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is ten years since neural networks made their spectacular comeback.
Prompted by this anniversary, we take a holistic perspective on Artificial
Intelligence (AI). Supervised Learning for cognitive tasks is effectively
solved - provided we have enough high-quality labeled data. However, deep
neural network models are not easily interpretable, and thus the debate between
blackbox and whitebox modeling has come to the fore. The rise of attention
networks, self-supervised learning, generative modeling, and graph neural
networks has widened the application space of AI. Deep Learning has also
propelled the return of reinforcement learning as a core building block of
autonomous decision making systems. The possible harms made possible by new AI
technologies have raised socio-technical issues such as transparency, fairness,
and accountability. The dominance of AI by Big-Tech who control talent,
computing resources, and most importantly, data may lead to an extreme AI
divide. Failure to meet high expectations in high profile, and much heralded
flagship projects like self-driving vehicles could trigger another AI winter.
- Abstract(参考訳): ニューラルネットワークが壮大な復活を遂げてから10年になる。
この記念日を記念して、人工知能(AI)の総合的な視点を取ります。
十分な品質のラベル付きデータがあれば、認知タスクのための教師付き学習は効果的に解決されます。
しかし、ディープニューラルネットワークモデルは容易には解釈できないため、ブラックボックスとホワイトボックスのモデリングの議論が目前に迫っている。
注目ネットワークの台頭、自己教師付き学習、生成モデリング、グラフニューラルネットワークがAIの応用領域を広げている。
Deep Learningはまた、自律的な意思決定システムの中核となるビルディングブロックとして強化学習を復活させた。
新しいai技術によって起こりうる害は、透明性、公平性、説明責任といった社会技術的問題を引き起こした。
人材、コンピューティングリソース、そして最も重要なことは、データを制御しているBig-TechによるAIの支配は、極端なAIの分裂につながるかもしれない。
高い期待に応えることができず、自動運転車のような旗艦プロジェクトは、新たなAI冬を引き起こす可能性がある。
関連論文リスト
- Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Landing AI on Networks: An equipment vendor viewpoint on Autonomous
Driving Networks [13.157685146274002]
AI技術によって駆動される自律運転ネットワーク(ADN)の課題と機会について論じる。
AIが現在のネットワークと将来のネットワークにどのように着地できるかを理解するために、ネットワークドメインに特有の課題の概要から始めます。
次に、システムビューを示し、AIがネットワークアーキテクチャにどのように適合できるかを明確にする。
論文 参考訳(メタデータ) (2022-04-26T16:51:00Z) - Deep Learning and Artificial General Intelligence: Still a Long Way to
Go [0.15229257192293197]
ニューラルネットワークアーキテクチャを用いたディープラーニングは、コンピュータサイエンス研究の最前線にある。
この記事では、現在の状態において、ディープニューラルネットワークが人工知能に到達するための選択技術である準備ができていない5つの主要な理由を批判的に示す。
論文 参考訳(メタデータ) (2022-03-25T23:36:17Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Challenges of Artificial Intelligence -- From Machine Learning and
Computer Vision to Emotional Intelligence [0.0]
AIは人間の支配者ではなく、支援者である、と私たちは信じています。
コンピュータビジョンはAIの開発の中心となっている。
感情は人間の知性の中心であるが、AIではほとんど使われていない。
論文 参考訳(メタデータ) (2022-01-05T06:00:22Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Next Wave Artificial Intelligence: Robust, Explainable, Adaptable,
Ethical, and Accountable [5.4138734778206]
ディープニューラルネットワークはコンピュータビジョン、音声認識、言語処理、ゲームプレイング、ロボット工学において多くの成功と新機能をもたらしている。
関連する制限は、今日のAIシステムの中で最も成功した場合でも脆さに苦しむことです。
AIシステムは、トレーニングデータから性別、人種、その他の要因に基づくバイアスを吸収し、その後の意思決定におけるバイアスをさらに大きくすることができる。
論文 参考訳(メタデータ) (2020-12-11T00:50:09Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - A clarification of misconceptions, myths and desired status of
artificial intelligence [0.0]
我々は,機械学習と統計学に関して,AIの望ましい現状と現状を考察する。
私たちの議論は、AIを取り巻く曖昧さのベールを解明して、その真の数量を見ることを目的としています。
論文 参考訳(メタデータ) (2020-08-03T17:22:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。