論文の概要: Real Sparks of Artificial Intelligence and the Importance of Inner
Interpretability
- arxiv url: http://arxiv.org/abs/2402.00901v1
- Date: Wed, 31 Jan 2024 23:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 18:15:02.389304
- Title: Real Sparks of Artificial Intelligence and the Importance of Inner
Interpretability
- Title(参考訳): 人工知能の本当の火花と内的解釈可能性の重要性
- Authors: Alex Grzankowski
- Abstract要約: この論文は、Microsoftのエンジニアによる研究であるGPTのインテリジェンスに関する最も詳細な記事の1つを取り上げている。
私は、よく知られた哲学的理由から、その方法論について論じます。
Inner Interpretability"#にはエキサイティングで新たな分野があります。
内的解釈可能性のアプローチをさらに洗練するために、哲学的概念のいくつかがどのように利用できるかを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The present paper looks at one of the most thorough articles on the
intelligence of GPT, research conducted by engineers at Microsoft. Although
there is a great deal of value in their work, I will argue that, for familiar
philosophical reasons, their methodology, !Blackbox Interpretability"#is
wrongheaded. But there is a better way. There is an exciting and emerging
discipline of !Inner Interpretability"#(and specifically Mechanistic
Interpretability) that aims to uncover the internal activations and weights of
models in order to understand what they represent and the algorithms they
implement. In my view, a crucial mistake in Black-box Interpretability is the
failure to appreciate that how processes are carried out matters when it comes
to intelligence and understanding. I can#t pretend to have a full story that
provides both necessary and sufficient conditions for being intelligent, but I
do think that Inner Interpretability dovetails nicely with plausible
philosophical views of what intelligence requires. So the conclusion is modest,
but the important point in my view is seeing how to get the research on the
right track. Towards the end of the paper, I will show how some of the
philosophical concepts can be used to further refine how Inner Interpretability
is approached, so the paper helps draw out a profitable, future two-way
exchange between Philosophers and Computer Scientists.
- Abstract(参考訳): 本稿では、Microsoftの技術者による研究であるGPTのインテリジェンスに関する最も詳細な記事の1つについて述べる。
彼らの仕事には多くの価値がありますが、哲学的な理由から、彼らの方法論は !
blackbox interpretability"#は間違っている。しかし、より良い方法がある。!inner interpretabilityのエキサイティングで新興の分野がある。#(特に機械的な解釈可能性)は、モデルの内部のアクティベーションと重みを解明し、彼らが何を表現し、彼らが実装したアルゴリズムを理解することを目的としている。
私の考えでは、ブラックボックスの解釈可能性の重大な誤りは、プロセスがどのように実行されるかが、知性と理解に関して重要であると理解できないことです。
私は、知的になるために必要な条件と十分な条件の両方を提供する完全なストーリーを持つふりをすることはできませんが、内的解釈能力は、知性が必要とするものに対する、説得力のある哲学的見解と密接に関係していると思います。
結論は控えめですが、私の考えでは重要な点は、研究を正しい方向に進める方法を見ることです。
論文の終わりに向けて、哲学的概念のいくつかは、内的解釈可能性のアプローチをさらに洗練するためにどのように利用できるかを示し、この論文は、哲学者と計算機科学者の間の利益ある双方向の交換を図り出すのに役立つ。
関連論文リスト
- On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - On a Functional Definition of Intelligence [0.0]
合意されたインテリジェンスの定義がなければ、"このシステムはインテリジェントか?
知性(intelligence)とは、哲学、心理学、認知科学の分野である。
我々は、その知性が実際に達成される方法とは異なる、純粋に機能的でブラックボックスな知性の定義について論じる。
論文 参考訳(メタデータ) (2023-12-15T05:46:49Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Do Artificial Intelligence Systems Understand? [0.0]
提示された「知的な」振る舞いを説明するために、機械に対する理解を説明する必要はない。
タスク解決ツールとしてのインテリジェンスに対する単なる構文的・機械的アプローチは、表示可能な操作範囲を正当化するのに十分である。
論文 参考訳(メタデータ) (2022-07-22T13:57:02Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Am I Building a White Box Agent or Interpreting a Black Box Agent? [5.482532589225552]
規則抽出文学は忠実度精度ジレンマの概念を含んでいる。
私は、現代の説明可能な人工知能の分野におけるこのジレンマの関連性を再確認します。
私は、ホワイトボックスエージェントの構築とブラックボックスエージェントの解釈という、2つの独立した研究方針について議論する。
論文 参考訳(メタデータ) (2020-07-02T15:20:43Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z) - Is Intelligence Artificial? [0.0]
本稿では,自然界,次に人工知能に適用可能な統一的な定義を提案する。
コルモゴロフの複素性理論に基づく計量が示唆され、エントロピーに関する測度が導かれる。
承認されたAIテストのバージョンは、後に 'acid test' として提示され、フリー思考プログラムが達成しようとするものかもしれない。
論文 参考訳(メタデータ) (2014-03-05T11:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。