論文の概要: The Generative AI Paradox: "What It Can Create, It May Not Understand"
- arxiv url: http://arxiv.org/abs/2311.00059v1
- Date: Tue, 31 Oct 2023 18:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 16:11:56.276031
- Title: The Generative AI Paradox: "What It Can Create, It May Not Understand"
- Title(参考訳): 生成AIのパラドックス:「何が作れるのか、理解できないかもしれない」
- Authors: Peter West, Ximing Lu, Nouha Dziri, Faeze Brahman, Linjie Li, Jena D.
Hwang, Liwei Jiang, Jillian Fisher, Abhilasha Ravichander, Khyathi Chandu,
Benjamin Newman, Pang Wei Koh, Allyson Ettinger, Yejin Choi
- Abstract要約: 生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
- 参考スコア(独自算出の注目度): 81.89252713236746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent wave of generative AI has sparked unprecedented global attention,
with both excitement and concern over potentially superhuman levels of
artificial intelligence: models now take only seconds to produce outputs that
would challenge or exceed the capabilities even of expert humans. At the same
time, models still show basic errors in understanding that would not be
expected even in non-expert humans. This presents us with an apparent paradox:
how do we reconcile seemingly superhuman capabilities with the persistence of
errors that few humans would make? In this work, we posit that this tension
reflects a divergence in the configuration of intelligence in today's
generative models relative to intelligence in humans. Specifically, we propose
and test the Generative AI Paradox hypothesis: generative models, having been
trained directly to reproduce expert-like outputs, acquire generative
capabilities that are not contingent upon -- and can therefore exceed -- their
ability to understand those same types of outputs. This contrasts with humans,
for whom basic understanding almost always precedes the ability to generate
expert-level outputs. We test this hypothesis through controlled experiments
analyzing generation vs. understanding in generative models, across both
language and image modalities. Our results show that although models can
outperform humans in generation, they consistently fall short of human
capabilities in measures of understanding, as well as weaker correlation
between generation and understanding performance, and more brittleness to
adversarial inputs. Our findings support the hypothesis that models' generative
capability may not be contingent upon understanding capability, and call for
caution in interpreting artificial intelligence by analogy to human
intelligence.
- Abstract(参考訳): 最近の生成AIの波は、人工知能の潜在的超人的レベルに対する興奮と懸念の両方で前例のない世界的な注目を集めている。
同時に、モデルは非専門家でも期待できないような理解の基本的な誤りを示す。
これは明らかなパラドックスを示します。人間はほとんどいないようなエラーの持続性で、一見超人的な能力とどのように調和させるのか?
本研究では、この緊張は、人間の知能に対する今日の生成モデルにおけるインテリジェンスの構成のばらつきを反映していると仮定する。
具体的には、生成型aiパラドックス仮説を提案し、テストする。生成型モデルは、専門家ライクなアウトプットを再現するために直接訓練され、それらと同じタイプのアウトプットを理解する能力を超える可能性がある生成型能力を取得する。
これは、基本的理解がほぼ常に専門家レベルのアウトプットを生成する能力に先行する人間とは対照的である。
生成モデルの生成と理解を言語と画像の両面で分析する制御実験により,この仮説を検証した。
以上の結果から,モデルは世代で人間よりも優れるが,理解の尺度では人間の能力に欠けるだけでなく,生成と理解の相関が弱くなり,逆入力に対する脆性が増すことが示された。
我々の研究結果は、モデルの生成能力は理解能力に即しないかもしれないという仮説を支持し、人間の知能と類似した人工知能の解釈に注意を喚起する。
関連論文リスト
- Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - A Rubric for Human-like Agents and NeuroAI [2.749726993052939]
コントリビュートされた研究は、振る舞いの模倣から機械学習メソッドのテストまで幅広い。
これら3つの目標のうちの1つが自動的に他の目標の進捗に変換されることは想定できない。
これは、弱く強いニューロAIとヒトのようなエージェントの例を用いて明らかにされている。
論文 参考訳(メタデータ) (2022-12-08T16:59:40Z) - Complementary artificial intelligence designed to augment human
discovery [2.7786142348700658]
我々は、認知能力と競合するのではなく、補完することで人間の理解を根本的に増強するために、有益なAIを再認識し、パイロットする。
我々は、この手法を用いて、物質が貴重なエネルギー関連特性を持っているかどうかの貴重な予測を生成する。
我々の予測は、人類の科学者や発明家によって特定されたとしても、今後数年ほどしか発見されていないことを実証しています。
論文 参考訳(メタデータ) (2022-07-02T19:36:34Z) - Humanly Certifying Superhuman Classifiers [8.736864280782592]
機械学習システムの性能を推定することは、人工知能研究における長年の課題である。
我々は,参照のための不完全な人間のアノテーションのみを用いて,オラクルと比較して精度を推定する理論を開発した。
この環境での超人的性能の検出と証明のための簡単なレシピを提供する。
論文 参考訳(メタデータ) (2021-09-16T11:00:05Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。