論文の概要: Are Language Models More Like Libraries or Like Librarians?
Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- arxiv url: http://arxiv.org/abs/2401.04854v1
- Date: Wed, 10 Jan 2024 00:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:09:32.131653
- Title: Are Language Models More Like Libraries or Like Librarians?
Bibliotechnism, the Novel Reference Problem, and the Attitudes of LLMs
- Title(参考訳): 言語モデルはライブラリか、それともライブラリアンか?
書誌テクニズム, 新たな参照問題, llmの態度
- Authors: Harvey Lederman, Kyle Mahowald
- Abstract要約: 本論では,本文の内容が人間の本文の内容に重要な意味を持つように,本文は派生的な意味にのみ意味があるのではないか,と論じる。
斬新な参照の事例は、LLMが実際に信念、欲望、意図を持っているという証拠を提供しており、そのため限られた形態のエージェンシーを持っている。
- 参考スコア(独自算出の注目度): 14.848007760540556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Are LLMs cultural technologies like photocopiers or printing presses, which
transmit information but cannot create new content? A challenge for this idea,
which we call bibliotechnism, is that LLMs often do generate entirely novel
text. We begin by defending bibliotechnism against this challenge, showing how
novel text may be meaningful only in a derivative sense, so that the content of
this generated text depends in an important sense on the content of original
human text. We go on to present a different, novel challenge for
bibliotechnism, stemming from examples in which LLMs generate "novel
reference", using novel names to refer to novel entities. Such examples could
be smoothly explained if LLMs were not cultural technologies but possessed a
limited form of agency (beliefs, desires, and intentions). According to
interpretationism in the philosophy of mind, a system has beliefs, desires and
intentions if and only if its behavior is well-explained by the hypothesis that
it has such states. In line with this view, we argue that cases of novel
reference provide evidence that LLMs do in fact have beliefs, desires, and
intentions, and thus have a limited form of agency.
- Abstract(参考訳): LLMは、光コピー機や印刷機のような、情報を伝えるが新しいコンテンツを作ることができない文化技術なのか?
ビブリオテクニズム(bibliotechnism)と呼ばれるこのアイデアの課題は、LLMが全く新しいテキストを生成することが多いことです。
我々はまず、この挑戦に対してビブリオテクニズムを擁護し、新しいテキストがデリバティブな意味でのみ意味を持つ可能性を示し、この生成されたテキストの内容が、オリジナルの人間のテキストの内容に重要な意味を持つことを示す。
我々は、llmが「ノベル・リファレンス」を生成する例から派生し、ノベル・エンティティを参照するためにノベル・ネームを用いて、書誌テクニズムの異なる斬新な挑戦を提示する。
LLMが文化的技術ではなく、限られた形態のエージェンシー(信条、願望、意図)を持っていた場合、このような例は円滑に説明できる。
心の哲学の解釈論によれば、システムが信念、欲望、意図を持っているのは、その行動がそのような状態を持っているという仮説によってよく説明されている場合に限りである。
本論では, LLMが実際に信念, 欲望, 意図を持っていて, 限られた形態のエージェンシーを持っているという証拠を, 新規参照の事例が提示していると論じる。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Do language models practice what they preach? Examining language ideologies about gendered language reform encoded in LLMs [6.06227550292852]
我々は、英語のジェンダー化言語改革を事例として、LLMが作成したテキストにおける言語イデオロギーについて研究する。
LLMは「正しい」あるいは「自然な」言語を使うよう求められた時、保守的な(進歩的な)価値観に合わせるよう求められた時と、最もよく似た言語を使用する。
このことは、LLMが生成したテキストで表現される言語イデオロギーがいかに異なるかを示しており、これはユーザにとって予期せぬことである。
論文 参考訳(メタデータ) (2024-09-20T18:55:48Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Caveat Lector: Large Language Models in Legal Practice [0.0]
大規模な言語モデルへの関心は、多くのユーザーが生成したテキストの品質を評価するための専門知識を欠いているという事実から来ている。
急流と表面的可視性の危険な組み合わせは、生成されたテキストを信頼する誘惑を招き、過信のリスクを生じさせる。
論文 参考訳(メタデータ) (2024-03-14T08:19:41Z) - LLMs Can't Plan, But Can Help Planning in LLM-Modulo Frameworks [18.068035947969044]
計画と推論タスクにおけるLLM(Large Language Models)の役割には、かなりの混乱がある。
自己回帰型LSMは、それ自体で計画や自己検証を行うことはできない、と我々は主張する。
本稿では,LLMの強みと外部モデルベース検証器を併用した bf LLM-Modulo Framework のビジョンを提案する。
論文 参考訳(メタデータ) (2024-02-02T14:43:18Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - LLMs grasp morality in concept [0.46040036610482665]
我々は人間を超えて広がる意味の一般的な理論を提供する。
我々は,LLMが意味エージェントとしての地位から,すでに人間の社会の構造を把握していることを示唆している。
不整合モデルは、道徳的および社会的哲学をより良く発展させるのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-11-04T01:37:41Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Avalon's Game of Thoughts: Battle Against Deception through Recursive
Contemplation [80.126717170151]
本研究では,複雑なアバロンゲームを用いて,認知環境におけるLSMの可能性を探究する。
本稿では,LLMの偽情報識別・対策能力を高めるための新しいフレームワークRecursive Contemplation(ReCon)を提案する。
論文 参考訳(メタデータ) (2023-10-02T16:27:36Z) - LLM Censorship: A Machine Learning Challenge or a Computer Security
Problem? [52.71988102039535]
セマンティック検閲は決定不能な問題として認識できることを示す。
我々は、知識のある攻撃者が不寛容なアウトプットを再構築できるため、これらの課題はセマンティックな検閲を超えて拡張されていると論じる。
論文 参考訳(メタデータ) (2023-07-20T09:25:02Z) - In-Context Impersonation Reveals Large Language Models' Strengths and
Biases [56.61129643802483]
我々は、視覚と言語タスクを解く前に、LLMに異なるペルソナを仮定するよう依頼する。
異なる年齢の子どものふりをしたLSMが、ヒトのような発達段階を回復することがわかった。
言語に基づく推論タスクでは、ドメインエキスパートを装うLLMが、ドメイン専門家を装うLLMよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-05-24T09:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。