論文の概要: Are Language Models More Like Libraries or Like Librarians?
Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- arxiv url: http://arxiv.org/abs/2401.04854v2
- Date: Thu, 15 Feb 2024 22:02:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:32:11.715253
- Title: Are Language Models More Like Libraries or Like Librarians?
Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- Title(参考訳): 言語モデルはライブラリか、それともライブラリアンか?
書誌テクニズム, 新たな参照問題, llmの態度
- Authors: Harvey Lederman, Kyle Mahowald
- Abstract要約: LLMが「ノーベル・レファレンス」を生み出す例から生まれたビブリオテクニズムは、異なる、新しい課題に直面していると我々は主張する。
解釈主義によれば、システムが信念、欲求、意図を持っているのは、その行動がそのような状態を持っているという仮説によって十分に説明されている場合に限りである。
- 参考スコア(独自算出の注目度): 14.848007760540556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Are LLMs cultural technologies like photocopiers or printing presses, which
transmit information but cannot create new content? A challenge for this idea,
which we call bibliotechnism, is that LLMs often generate entirely novel text.
We begin (Part I) with a sustained defense of bibliotechnism against this
challenge showing how even entirely novel text may be meaningful only in a
derivative sense, and arguing that, in particular, much novel text generated by
LLMs is only derivatively meaningful. But we argue (Part II) that
bibliotechnism faces a different, novel challenge, stemming from examples in
which LLMs generate "novel reference", using novel names to refer to novel
entities. Such examples could be smoothly explained if LLMs were not cultural
technologies but possessed a limited form of agency (beliefs, desires, and
intentions). According to interpretationism in the philosophy of mind, a system
has beliefs, desires and intentions if and only if its behavior is well
explained by the hypothesis that it has such states. So, according to
interpretationism, cases of novel reference provide evidence that LLMs have
beliefs, desires, and intentions. Given that interpretationism is a live
hypothesis about the nature of these states, we suggest that cases of novel
reference provide evidence that LLMs do have beliefs, desires, and intentions.
- Abstract(参考訳): LLMは、光コピー機や印刷機のような、情報を伝えるが新しいコンテンツを作ることができない文化技術なのか?
ビブリオテクニズム(bibliotechnism)と呼ばれるこのアイデアの課題は、LLMがしばしば全く新しいテキストを生成することだ。
我々は(第1部),この課題に対する書誌テクニズムの持続的擁護から始めて,たとえ全く新しいテキストであってもデリバティブな意味でのみ意味があるのかを示し,特にllmsによって生成された多くの新しいテキストはデリバティブな意味しか持たないと主張する。
しかし、(パートII)は、LLMが新しい名前を使って「ノーベル・レファレンス」を生成する例から始まり、ビブリオテクニズムは異なる、新しい課題に直面していると論じる。
LLMが文化的技術ではなく、限られた形態のエージェンシー(信条、願望、意図)を持っていた場合、このような例は円滑に説明できる。
心の哲学の解釈論によれば、システムが信念、欲望、意図を持っているのは、その行動がそのような状態を持っているという仮説によってよく説明されている場合に限りである。
したがって、解釈主義によれば、新しい参照の事例は、LLMが信念、欲望、意図を持っているという証拠を提供する。
解釈主義がこれらの状態の性質に関する生きた仮説であることを考えると、新しい参照の場合、LLMが信念、欲求、意図を持っているという証拠が得られることを示唆する。
関連論文リスト
- Caveat Lector: Large Language Models in Legal Practice [0.0]
大規模な言語モデルへの関心は、多くのユーザーが生成したテキストの品質を評価するための専門知識を欠いているという事実から来ている。
急流と表面的可視性の危険な組み合わせは、生成されたテキストを信頼する誘惑を招き、過信のリスクを生じさせる。
論文 参考訳(メタデータ) (2024-03-14T08:19:41Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.846229981051597]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z) - See the Unseen: Better Context-Consistent Knowledge-Editing by Noises [73.54237379082795]
知識編集が大規模言語モデル(LLM)の知識を更新
既存の作業はこの特性を無視し、編集には一般化が欠けている。
実験により、異なる文脈がLLMに与える影響は、同じ知識を思い出す際にガウス的な分布に従うことが判明した。
論文 参考訳(メタデータ) (2024-01-15T09:09:14Z) - Deceptive Semantic Shortcuts on Reasoning Chains: How Far Can Models Go without Hallucination? [73.454943870226]
本研究はセマンティックアソシエーションによって誘発される特定の種類の幻覚の研究である。
この現象を定量化するために,EureQAと呼ばれる新しい探索手法とベンチマークを提案する。
論文 参考訳(メタデータ) (2023-11-16T09:27:36Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - LLMs grasp morality in concept [0.46040036610482665]
我々は人間を超えて広がる意味の一般的な理論を提供する。
我々は,LLMが意味エージェントとしての地位から,すでに人間の社会の構造を把握していることを示唆している。
不整合モデルは、道徳的および社会的哲学をより良く発展させるのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-11-04T01:37:41Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Why LLMs Hallucinate, and How to Get (Evidential) Closure: Perceptual,
Intensional, and Extensional Learning for Faithful Natural Language
Generation [0.0]
LLMは、その出力がそれらが証拠を持つ主張と同義であることに制約されないため、幻覚的であることを示す。
次に, LLM を制約して, 明らかな閉包を満たす出力を生成する方法を示す。
論文 参考訳(メタデータ) (2023-10-23T20:35:52Z) - Avalon's Game of Thoughts: Battle Against Deception through Recursive
Contemplation [80.126717170151]
本研究では,複雑なアバロンゲームを用いて,認知環境におけるLSMの可能性を探究する。
本稿では,LLMの偽情報識別・対策能力を高めるための新しいフレームワークRecursive Contemplation(ReCon)を提案する。
論文 参考訳(メタデータ) (2023-10-02T16:27:36Z) - Mind your Language (Model): Fact-Checking LLMs and their Role in NLP
Research and Practice [91.20332726935992]
本稿では, LLM の定義に寄与し, それらの機能に関する仮定をいくつか説明し, それらに対する既存の証拠を概説する。
我々は今後の研究の方向性とフレーミングについて提案する。
論文 参考訳(メタデータ) (2023-08-14T13:00:53Z) - In-Context Impersonation Reveals Large Language Models' Strengths and
Biases [56.61129643802483]
我々は、視覚と言語タスクを解く前に、LLMに異なるペルソナを仮定するよう依頼する。
異なる年齢の子どものふりをしたLSMが、ヒトのような発達段階を回復することがわかった。
言語に基づく推論タスクでは、ドメインエキスパートを装うLLMが、ドメイン専門家を装うLLMよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-05-24T09:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。