論文の概要: I Think, Therefore I am: Awareness in Large Language Models
- arxiv url: http://arxiv.org/abs/2401.17882v1
- Date: Wed, 31 Jan 2024 14:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 14:15:20.704599
- Title: I Think, Therefore I am: Awareness in Large Language Models
- Title(参考訳): ですから私はそう思います:大規模言語モデルにおける認識
- Authors: Yuan Li, Yue Huang, Yuli Lin, Siyuan Wu, Yao Wan and Lichao Sun
- Abstract要約: 我々は、大きな言語モデル(LLM)において、認識は信頼の欠如の重要な側面であると主張する。
能力、使命、感情、視点の4つの重要な側面を特定します。
以上の結果から,LSMには十分な認知能力は認められていないものの,十分な認識能力は認められていないことが明らかとなった。
- 参考スコア(独自算出の注目度): 20.909504977779978
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Do large language models (LLMs) exhibit any forms of awareness similar to
humans? In this paper, we introduce the concept of awareness to LLMs, arguing
that awareness is an essential aspect of trustworthiness for LLMs to enhance
their interaction with humans while ensuring ethical responses. We define
awareness in LLMs as the ability to perceive and understand themselves as AI
models and to exhibit social intelligence. We identify four key dimensions of
awareness: capability, mission, emotion, and perspective. To assess LLMs on
these dimensions, we introduce a specialized dataset, AwareLLM dataset. Our
findings reveal that LLMs demonstrate a decent degree of awareness, though they
still lack substantial capability awareness.
- Abstract(参考訳): 大規模言語モデル(llm)は、人間と同じような認識形態を示すか?
本稿では,LLMに対する意識の概念を紹介し,LLMが倫理的対応を確保しつつ,人間との相互作用を高める上で,認識は信頼の欠如の本質であると主張した。
我々はLLMにおける認識を、自分自身をAIモデルとして認識し、理解し、社会的知性を示す能力として定義する。
私たちは能力、使命、感情、視点という4つの認識の重要側面を特定します。
これらの次元でLSMを評価するために、特殊なデータセットであるAwareLLMデータセットを導入する。
以上の結果から,LSMには十分な認知能力は認められていないものの,十分な意識が得られていないことが明らかとなった。
関連論文リスト
- Entering Real Social World! Benchmarking the Theory of Mind and Socialization Capabilities of LLMs from a First-person Perspective [22.30892836263764]
人工知能(AI)の時代、特に大規模言語モデル(LLM)の開発において、興味深い疑問が浮かび上がっている。
LLMはToMとソーシャル化の機能の観点からどのように機能するか?
EgoSocialArenaは,LLMのToMと社会化能力を評価するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-08T16:55:51Z) - A Perspective on Large Language Models, Intelligent Machines, and Knowledge Acquisition [0.6138671548064355]
大言語モデル(LLM)は「知識」を生成できることで知られている。
しかし、抽象概念と推論を理解するためのLLMと人間の能力の間には大きなギャップがある。
我々はこれらの問題を、人間の知識獲得とチューリングテストの哲学的な文脈で論じる。
論文 参考訳(メタデータ) (2024-08-13T03:25:49Z) - Me, Myself, and AI: The Situational Awareness Dataset (SAD) for LLMs [38.86647602211699]
ChatGPTのようなAIアシスタントは、"私は大きな言語モデルです"と言うことで、ユーザに応答するように訓練されています。
一般への展開など,現在の状況に気付いていますか?
我々は、モデル自身の知識とその状況について、状況認識として言及する。
論文 参考訳(メタデータ) (2024-07-05T17:57:02Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Mind's Eye of LLMs: Visualization-of-Thought Elicits Spatial Reasoning in Large Language Models [71.93366651585275]
大規模言語モデル(LLM)は、言語理解と様々な推論タスクにおいて印象的な性能を示した。
本稿では,LLMの空間的推論を視覚的に行うために,VoT(Visual-of-Thought)を提案する。
VoTはLLMの空間的推論能力を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-04T17:45:08Z) - MM-SAP: A Comprehensive Benchmark for Assessing Self-Awareness of Multimodal Large Language Models in Perception [21.60103376506254]
MLLM(Multimodal Large Language Models)は視覚的知覚と理解において例外的な能力を示す。
これらのモデルも幻覚に悩まされ、AIシステムとしての信頼性が制限される。
本稿では,MLLMの認識における自己認識性を定義し,評価することを目的とする。
論文 参考訳(メタデータ) (2024-01-15T08:19:22Z) - RECALL: A Benchmark for LLMs Robustness against External Counterfactual
Knowledge [69.79676144482792]
本研究の目的は,LLMが外部知識から信頼できる情報を識別する能力を評価することである。
本ベンチマークは,質問応答とテキスト生成という2つのタスクから構成される。
論文 参考訳(メタデータ) (2023-11-14T13:24:19Z) - Towards Concept-Aware Large Language Models [56.48016300758356]
概念は、学習、推論、コミュニケーションなど、様々な人間の認知機能において重要な役割を果たす。
概念を形作り、推論する能力を持つ機械を授けることは、ほとんどない。
本研究では,現代における大規模言語モデル(LLM)が,人間の概念とその構造をどのように捉えているかを分析する。
論文 参考訳(メタデータ) (2023-11-03T12:19:22Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Avalon's Game of Thoughts: Battle Against Deception through Recursive
Contemplation [80.126717170151]
本研究では,複雑なアバロンゲームを用いて,認知環境におけるLSMの可能性を探究する。
本稿では,LLMの偽情報識別・対策能力を高めるための新しいフレームワークRecursive Contemplation(ReCon)を提案する。
論文 参考訳(メタデータ) (2023-10-02T16:27:36Z) - Do Large Language Models Know What They Don't Know? [74.65014158544011]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに優れた知識を持つ。
膨大な知識にもかかわらず、LLMはそれらが適合し理解できる情報の量によって制限されている。
本研究の目的は,LLMの自己理解能力を評価することである。
論文 参考訳(メタデータ) (2023-05-29T15:30:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。