論文の概要: Can ChatGPT Make Explanatory Inferences? Benchmarks for Abductive Reasoning
- arxiv url: http://arxiv.org/abs/2404.18982v1
- Date: Mon, 29 Apr 2024 15:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 18:29:43.315423
- Title: Can ChatGPT Make Explanatory Inferences? Benchmarks for Abductive Reasoning
- Title(参考訳): ChatGPTは説明推論を可能か?-帰納的推論のためのベンチマーク
- Authors: Paul Thagard,
- Abstract要約: 本稿では,AIプログラムが説明推論を行う能力を評価するためのベンチマークセットを提案する。
ベンチマークテストでは、ChatGPTが多くのドメインで創造的で評価的な推論を行うことが明らかになった。
ChatGPTと類似のモデルは説明、理解、因果推論、意味、創造性ができないという主張が反論される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explanatory inference is the creation and evaluation of hypotheses that provide explanations, and is sometimes known as abduction or abductive inference. Generative AI is a new set of artificial intelligence models based on novel algorithms for generating text, images, and sounds. This paper proposes a set of benchmarks for assessing the ability of AI programs to perform explanatory inference, and uses them to determine the extent to which ChatGPT, a leading generative AI model, is capable of making explanatory inferences. Tests on the benchmarks reveal that ChatGPT performs creative and evaluative inferences in many domains, although it is limited to verbal and visual modalities. Claims that ChatGPT and similar models are incapable of explanation, understanding, causal reasoning, meaning, and creativity are rebutted.
- Abstract(参考訳): 説明推論(英: Explanatory inference)とは、説明を提供する仮説の作成と評価であり、時には誘惑的推論(abduction)または誘惑的推論(abductive inference)として知られる。
Generative AIは、テキスト、画像、音を生成する新しいアルゴリズムに基づいた、人工知能モデルの新たなセットである。
本稿では、AIプログラムが説明的推論を行う能力を評価するための一連のベンチマークを提案し、それらを用いて、主要な生成的AIモデルであるChatGPTが説明的推論を行うことができる範囲を決定する。
ベンチマークテストでは、ChatGPTは多くのドメインで創造的で評価的な推論を行うが、これは言語と視覚のモダリティに限られている。
ChatGPTと類似のモデルは説明、理解、因果推論、意味、創造性ができないという主張が反論される。
関連論文リスト
- Is Contrasting All You Need? Contrastive Learning for the Detection and Attribution of AI-generated Text [4.902089836908786]
WhosAIは、与えられた入力テキストが人間かAIによって生成されたかを予測するために設計された3重ネットワークコントラスト学習フレームワークである。
提案するフレームワークは,チューリングテストとオーサリングの両タスクにおいて,優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-07-12T15:44:56Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Hate Speech Classification with Model Agnostic Methods [0.9990687944474738]
本研究の目的は、ヘイトスピーチ予測と、その決定を支援するためにシステムによって生成された説明とのギャップを埋めることである。
これは、まずテキストの分類を予測し、その後、ポストホック、モデル非依存、代理的解釈可能性アプローチを提供することによって達成されている。
論文 参考訳(メタデータ) (2023-05-30T19:52:56Z) - Generative AI: Implications and Applications for Education [0.0]
2022年11月のChatGPTの打ち上げは、一部の教育者の間でパニックを巻き起こし、他者からの資格ある熱意を喚起した。
Generative AIという抽象用語の下では、ChatGPTはコンピュータ生成テキスト、画像、その他のデジタルメディアを配信するための様々な技術の例である。
論文 参考訳(メタデータ) (2023-05-12T16:52:38Z) - How Generative AI models such as ChatGPT can be (Mis)Used in SPC
Practice, Education, and Research? An Exploratory Study [2.0841728192954663]
生成人工知能(AI)モデルは、統計的プロセス制御(SPC)の実践、学習、研究に革命をもたらす可能性がある。
これらのツールは開発の初期段階にあり、簡単に誤用されるか、誤解される可能性がある。
コードを提供し、基本的な概念を説明し、SPCの実践、学習、研究に関する知識を創造するChatGPTの能力を探求する。
論文 参考訳(メタデータ) (2023-02-17T15:48:37Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Local Explanation of Dialogue Response Generation [77.68077106724522]
反応生成の局所的説明(LERG)は、生成モデルの推論過程に関する洞察を得るために提案される。
LERGは、シーケンス予測を人間の応答の不確実性推定とみなし、入力を摂動させ、人間の応答に対する確実性の変化を計算することによって説明を作成する。
提案手法は, 提案手法を改良し, 提案手法の4.4~12.8%を改良した。
論文 参考訳(メタデータ) (2021-06-11T17:58:36Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。