論文の概要: Artificial Intelligence Narratives: An Objective Perspective on Current
Developments
- arxiv url: http://arxiv.org/abs/2103.11961v1
- Date: Thu, 18 Mar 2021 17:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:38:59.647015
- Title: Artificial Intelligence Narratives: An Objective Perspective on Current
Developments
- Title(参考訳): 人工知能のナラティブ:現状の展望
- Authors: Noah Klarmann
- Abstract要約: この研究は、人工知能(AI)の全体像をより深く理解することに関心のある研究者に出発点を提供します。
読者にとって欠かせないことは、AIは様々な方法、思考の流派、そしてそれぞれの歴史的運動を含む包括的用語として理解されなければならないことである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work provides a starting point for researchers interested in gaining a
deeper understanding of the big picture of artificial intelligence (AI). To
this end, a narrative is conveyed that allows the reader to develop an
objective view on current developments that is free from false promises that
dominate public communication. An essential takeaway for the reader is that AI
must be understood as an umbrella term encompassing a plethora of different
methods, schools of thought, and their respective historical movements.
Consequently, a bottom-up strategy is pursued in which the field of AI is
introduced by presenting various aspects that are characteristic of the
subject. This paper is structured in three parts: (i) Discussion of current
trends revealing false public narratives, (ii) an introduction to the history
of AI focusing on recurring patterns and main characteristics, and (iii) a
critical discussion on the limitations of current methods in the context of the
potential emergence of a strong(er) AI. It should be noted that this work does
not cover any of these aspects holistically; rather, the content addressed is a
selection made by the author and subject to a didactic strategy.
- Abstract(参考訳): この研究は、人工知能(AI)の全体像をより深く理解することに関心を持つ研究者にとって、出発点となる。
この目的のために、読者は、公的なコミュニケーションを支配する偽の約束のない現在の発展に対する客観的な視点を発達させることができる物語が伝えられる。
読者にとって重要なポイントは、AIは様々な方法、思考の流派、そしてそれぞれの歴史的運動を含む傘用語として理解されなければならないことである。
これにより、その主題の特徴となる様々な側面を提示することにより、AIの分野を導入するボトムアップ戦略が追求される。
本稿では,<i> 虚偽の公開物語の現況に関する議論, (ii) 繰り返しパターンと主特徴に着目したaiの歴史の紹介, (iii) 強い(er) aiの出現可能性の文脈における現在の手法の限界に関する批判的な議論,の3つの部分から構成する。
注意すべきなのは、この作品がこれらの側面を全体的にカバーしていないことであり、その内容は著者による選択であり、ディダクティックな戦略の対象である。
関連論文リスト
- Position: An Inner Interpretability Framework for AI Inspired by Lessons from Cognitive Neuroscience [4.524832437237367]
内解釈可能性(Inner Interpretability)は、AIシステムの内部メカニズムを明らかにするための、有望な分野である。
近年の批判は、AIの幅広い目標を前進させるための有用性に疑問を呈する問題を提起している。
ここでは、関係する関係を描き、フィールド間で生産的に伝達できる教訓を強調します。
論文 参考訳(メタデータ) (2024-06-03T14:16:56Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Unmasking the Shadows of AI: Investigating Deceptive Capabilities in Large Language Models [0.0]
この研究は、大規模言語モデル(LLM)の騙し行動に集中して、AIの騙しの複雑な風景を批判的にナビゲートする。
私の目標は、この問題を解明し、それを取り巻く談話を調べ、その分類と混乱を掘り下げることです。
論文 参考訳(メタデータ) (2024-02-07T00:21:46Z) - Language Models: A Guide for the Perplexed [51.88841610098437]
このチュートリアルは、言語モデルを学ぶ人と、興味を持ち、もっと学びたいと思う人とのギャップを狭めることを目的としています。
実験を通して学ぶことができる質問に焦点を当てた科学的視点を提供する。
言語モデルは、現在、その開発に繋がる研究の文脈に置かれています。
論文 参考訳(メタデータ) (2023-11-29T01:19:02Z) - Techniques for supercharging academic writing with generative AI [0.0]
このパースペクティブは、生成的人工知能(AI)を用いた学術著作の質と効率を高めるための原則と方法を示す。
我々は、書面におけるAIの関与の根拠(なぜ)、プロセス(方法)、そして自然(何)を明確にする人間とAIの協調フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-10-26T04:35:00Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。