論文の概要: Language Models as Critical Thinking Tools: A Case Study of Philosophers
- arxiv url: http://arxiv.org/abs/2404.04516v2
- Date: Wed, 7 Aug 2024 19:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-09 20:16:46.523399
- Title: Language Models as Critical Thinking Tools: A Case Study of Philosophers
- Title(参考訳): 批判的思考ツールとしての言語モデル--哲学者を事例として
- Authors: Andre Ye, Jared Moore, Rose Novick, Amy X. Zhang,
- Abstract要約: 哲学者は、自己意識が欠如しているため、言語モデルが有用でないことに気付く。
自己形成開始モデルを用いて、LMが重要な思考ツールとして機能する3つの役割を定式化します。
- 参考スコア(独自算出の注目度): 6.910458378890534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current work in language models (LMs) helps us speed up or even skip thinking by accelerating and automating cognitive work. But can LMs help us with critical thinking -- thinking in deeper, more reflective ways which challenge assumptions, clarify ideas, and engineer new concepts? We treat philosophy as a case study in critical thinking, and interview 21 professional philosophers about how they engage in critical thinking and on their experiences with LMs. We find that philosophers do not find LMs to be useful because they lack a sense of selfhood (memory, beliefs, consistency) and initiative (curiosity, proactivity). We propose the selfhood-initiative model for critical thinking tools to characterize this gap. Using the model, we formulate three roles LMs could play as critical thinking tools: the Interlocutor, the Monitor, and the Respondent. We hope that our work inspires LM researchers to further develop LMs as critical thinking tools and philosophers and other 'critical thinkers' to imagine intellectually substantive uses of LMs.
- Abstract(参考訳): 言語モデル(LM)における現在の作業は、認知作業の高速化と自動化によって、思考のスピードアップや省略にも役立ちます。
しかし、LMは、仮定に挑戦し、アイデアを明確にし、新しい概念を設計する、より深く、より反射的な考え方で、批判的な思考に役立ちますか?
批判的思考における哲学のケーススタディとして扱うとともに,21人の専門家哲学者に,批判的思考への関与とLMの経験についてインタビューする。
哲学者は、自尊心(記憶、信念、一貫性)とイニシアチブ(好奇心、積極性)が欠如していることから、LMが有用でないと感じている。
このギャップを特徴付けるために,批判的思考ツールのための自己行動開始モデルを提案する。
モデルを用いて、LMが重要な思考ツールとして機能する3つの役割を定式化します。
我々の研究は、LM研究者に批判的思考ツールや哲学者、その他の「批判的思考者」としてLMをさらに発展させ、LMの知的実体的利用を想像させることを願っている。
関連論文リスト
- Self-Cognition in Large Language Models: An Exploratory Study [77.47074736857726]
本稿では,Large Language Models(LLMs)における自己認識の先駆的研究を行う。
まず,LLMが自己認識を示す場所を評価するために,自己認識指導のプールを構築した。
モデルサイズ, トレーニングデータ品質, 自己認識レベルとの間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-07-01T17:52:05Z) - Does ChatGPT Have a Mind? [0.0]
本稿では,ChatGPT のような大規模言語モデル (LLM) が,信念,願望,意図を包含する真の民間心理学を持っているか否かに着目し,心を持っているかどうかを検討する。
まず, 情報, 因果, 構造, テレオセマンティックな説明を含む様々な哲学的表現理論を調査し, LLMがそれぞれの提案する重要な条件を満たすことを論じる。
第2に, LLM が行動に頑健な態度を示すか否かを考察する。
論文 参考訳(メタデータ) (2024-06-27T00:21:16Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Everything of Thoughts: Defying the Law of Penrose Triangle for Thought
Generation [42.472954457731355]
本稿では,既存の思考パラダイムの「ペンローズ三角形」の法則に反する,思考のすべて(XoT)と呼ばれる新しい思考促進手法を紹介する。
XoTは、事前訓練された強化学習とモンテカルロ木探索(MCTS)を活用して、外部ドメイン知識を思考に組み込む。
我々は,ゲーム24,8-Puzzle,Pocket Cubeなど,難解な複数解問題に対するXoTの評価を行った。
論文 参考訳(メタデータ) (2023-11-07T12:30:36Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。