論文の概要: We Can't Understand AI Using our Existing Vocabulary
- arxiv url: http://arxiv.org/abs/2502.07586v1
- Date: Tue, 11 Feb 2025 14:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:10:12.297471
- Title: We Can't Understand AI Using our Existing Vocabulary
- Title(参考訳): 既存の語彙を使ってAIを理解できない
- Authors: John Hewitt, Robert Geirhos, Been Kim,
- Abstract要約: AIを理解するためには、人間の言葉の既存の語彙を頼りにすることはできない、と私たちは主張する。
私たちは、機械に教えたい人間の概念を正確に表現する新しい言葉、ネオロジズムを開発することに努めるべきです。
- 参考スコア(独自算出の注目度): 22.352112061625768
- License:
- Abstract: This position paper argues that, in order to understand AI, we cannot rely on our existing vocabulary of human words. Instead, we should strive to develop neologisms: new words that represent precise human concepts that we want to teach machines, or machine concepts that we need to learn. We start from the premise that humans and machines have differing concepts. This means interpretability can be framed as a communication problem: humans must be able to reference and control machine concepts, and communicate human concepts to machines. Creating a shared human-machine language through developing neologisms, we believe, could solve this communication problem. Successful neologisms achieve a useful amount of abstraction: not too detailed, so they're reusable in many contexts, and not too high-level, so they convey precise information. As a proof of concept, we demonstrate how a "length neologism" enables controlling LLM response length, while a "diversity neologism" allows sampling more variable responses. Taken together, we argue that we cannot understand AI using our existing vocabulary, and expanding it through neologisms creates opportunities for both controlling and understanding machines better.
- Abstract(参考訳): このポジションペーパーは、AIを理解するために、既存の人間の言葉の語彙に頼ることはできない、と論じている。
代わりに、我々はネオロジズム(ネオロジズム)を開発することに努めるべきである。機械や学習するために必要な機械の概念を正確に表現する新しい言葉。
私たちは人間と機械が異なる概念を持っているという前提から始めます。
人間は機械の概念を参照し、制御し、人間の概念を機械に伝達できなければならない。
ニューロジズムを開発することによって、共通の人間機械言語を作ることは、このコミュニケーション問題を解決することができる、と私たちは信じている。
成功しているネオロジズムは、詳細ではなく、多くの文脈で再利用可能であり、高レベルではないため、正確な情報を伝えるという、有用な抽象化を実現しています。
概念実証として、「長さネオロジズム」がLLM応答長を制御できるのに対し、「多様性ネオロジズム」はより可変な応答をサンプリングできることを示す。
ひとつにまとめると、私たちは既存の語彙を使ってAIを理解することができず、ネオロジズムを通じてAIを拡張することで、機械の制御と理解を良くする機会を生み出している、と論じる。
関連論文リスト
- Explaining Explaining [0.882727051273924]
高度なAIシステムに自信を持つ人々にとって、説明は鍵となる。
マシンラーニングベースのシステムは、通常はブラックボックスであるため、説明できない。
認知エージェント開発におけるハイブリッドアプローチについて述べる。
論文 参考訳(メタデータ) (2024-09-26T16:55:44Z) - An Essay concerning machine understanding [0.0]
このエッセイでは、理解可能なマシンを構築する方法について述べています。
単語を理解するためには、それが指標である根底にある概念を知って、扱えることが必要です。
論文 参考訳(メタデータ) (2024-05-03T04:12:43Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Do Artificial Intelligence Systems Understand? [0.0]
提示された「知的な」振る舞いを説明するために、機械に対する理解を説明する必要はない。
タスク解決ツールとしてのインテリジェンスに対する単なる構文的・機械的アプローチは、表示可能な操作範囲を正当化するのに十分である。
論文 参考訳(メタデータ) (2022-07-22T13:57:02Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。