論文の概要: Are Language Models More Like Libraries or Like Librarians? Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- arxiv url: http://arxiv.org/abs/2401.04854v3
- Date: Mon, 3 Jun 2024 17:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 19:42:23.652755
- Title: Are Language Models More Like Libraries or Like Librarians? Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- Title(参考訳): 言語モデルは図書館か図書館か? : ビブリオテクニズム、新しい参照問題、LLMの態度
- Authors: Harvey Lederman, Kyle Mahowald,
- Abstract要約: ビブリオテクニズムは, LLMが新たな参照を生み出す事例から, 独立した課題に直面している。
心の哲学における解釈主義によれば、システムがそのような態度を持つのは、その振る舞いがそれが可能であるという仮説によって十分に説明されている場合に限る。
しかし、我々は、解釈主義は態度を持つ非常に単純な生き物と互換性があり、これらの態度を前提とする見解には意識、知覚、知性が必要であると強調する。
- 参考スコア(独自算出の注目度): 12.568491518122622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Are LLMs cultural technologies like photocopiers or printing presses, which transmit information but cannot create new content? A challenge for this idea, which we call bibliotechnism, is that LLMs generate novel text. We begin with a defense of bibliotechnism, showing how even novel text may inherit its meaning from original human-generated text. We then argue that bibliotechnism faces an independent challenge from examples in which LLMs generate novel reference, using new names to refer to new entities. Such examples could be explained if LLMs were not cultural technologies but had beliefs, desires, and intentions. According to interpretationism in the philosophy of mind, a system has such attitudes if and only if its behavior is well explained by the hypothesis that it does. Interpretationists may hold that LLMs have attitudes, and thus have a simple solution to the novel reference problem. We emphasize, however, that interpretationism is compatible with very simple creatures having attitudes and differs sharply from views that presuppose these attitudes require consciousness, sentience, or intelligence (topics about which we make no claims).
- Abstract(参考訳): LLMは、光コピー機や印刷機のような文化技術で、情報を伝達するが、新しいコンテンツを作ることはできないのか?
ビブリオテクニズム(bibliotechnism)と呼ばれるこのアイデアの課題は、LLMが新しいテキストを生成することだ。
ビブリオテクニズムの擁護から始まり、新しいテキストでさえ、その意味を人間の生成したテキストから受け継がせるかを示す。
ビブリオテクニズムは LLM が新規な参照を生成する例から独立した課題に直面しており、新しい名前を使って新しいエンティティを参照している。
このような例は、LLMが文化的技術ではなく、信念、願望、意図を持っているかどうかを説明することができる。
心の哲学における解釈主義によれば、システムがそのような態度を持つのは、その振る舞いがそれが可能であるという仮説によって十分に説明されている場合に限る。
解釈主義者は、LLMには態度があり、新しい参照問題に対する簡単な解決策があると考えるかもしれない。
しかし、我々は、解釈主義は態度を持つ非常に単純な生き物と互換性があり、これらの態度を前提とする見解が意識、知覚、知性を必要とするという見解とは著しく異なることを強調した。
関連論文リスト
- Does ChatGPT Have a Mind? [0.0]
本稿では,ChatGPT のような大規模言語モデル (LLM) が,信念,願望,意図を包含する真の民間心理学を持っているか否かに着目し,心を持っているかどうかを検討する。
まず, 情報, 因果, 構造, テレオセマンティックな説明を含む様々な哲学的表現理論を調査し, LLMがそれぞれの提案する重要な条件を満たすことを論じる。
第2に, LLM が行動に頑健な態度を示すか否かを考察する。
論文 参考訳(メタデータ) (2024-06-27T00:21:16Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Caveat Lector: Large Language Models in Legal Practice [0.0]
大規模な言語モデルへの関心は、多くのユーザーが生成したテキストの品質を評価するための専門知識を欠いているという事実から来ている。
急流と表面的可視性の危険な組み合わせは、生成されたテキストを信頼する誘惑を招き、過信のリスクを生じさせる。
論文 参考訳(メタデータ) (2024-03-14T08:19:41Z) - Unmemorization in Large Language Models via Self-Distillation and
Deliberate Imagination [58.36408867180233]
大規模言語モデル(LLM)は、プライバシー侵害や機密データの不要な露出といった重要な問題に苦慮している。
我々は、LLMアンラーニングの文脈において、意図的な想像力という新しいアプローチを導入する。
本研究は,異なるモデルとサイズにまたがるこのアプローチの有用性を示し,パラメータ効率の良い微調整を行った。
論文 参考訳(メタデータ) (2024-02-15T16:21:14Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.068035947969044]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
AlignedCoTは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - LLMs grasp morality in concept [0.46040036610482665]
我々は人間を超えて広がる意味の一般的な理論を提供する。
我々は,LLMが意味エージェントとしての地位から,すでに人間の社会の構造を把握していることを示唆している。
不整合モデルは、道徳的および社会的哲学をより良く発展させるのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-11-04T01:37:41Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Avalon's Game of Thoughts: Battle Against Deception through Recursive
Contemplation [80.126717170151]
本研究では,複雑なアバロンゲームを用いて,認知環境におけるLSMの可能性を探究する。
本稿では,LLMの偽情報識別・対策能力を高めるための新しいフレームワークRecursive Contemplation(ReCon)を提案する。
論文 参考訳(メタデータ) (2023-10-02T16:27:36Z) - LLM Censorship: A Machine Learning Challenge or a Computer Security
Problem? [52.71988102039535]
セマンティック検閲は決定不能な問題として認識できることを示す。
我々は、知識のある攻撃者が不寛容なアウトプットを再構築できるため、これらの課題はセマンティックな検閲を超えて拡張されていると論じる。
論文 参考訳(メタデータ) (2023-07-20T09:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。