論文の概要: Can LLMs Detect Ambiguous Plural Reference? An Analysis of Split-Antecedent and Mereological Reference
- arxiv url: http://arxiv.org/abs/2510.04581v1
- Date: Mon, 06 Oct 2025 08:32:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.752856
- Title: Can LLMs Detect Ambiguous Plural Reference? An Analysis of Split-Antecedent and Mereological Reference
- Title(参考訳): LLMは曖昧な複数参照を検出できるか? : スプリット先行およびメレオジカル参照の解析
- Authors: Dang Anh, Rick Nouwen, Massimo Poesio,
- Abstract要約: LLMは時として曖昧な代名詞の参照を意識している。
解釈の選択において、必ずしも人間の参照に従うとは限らない。
彼らは直接の指示なしに曖昧さを特定するのに苦労している。
- 参考スコア(独自算出の注目度): 3.409902233585822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our goal is to study how LLMs represent and interpret plural reference in ambiguous and unambiguous contexts. We ask the following research questions: (1) Do LLMs exhibit human-like preferences in representing plural reference? (2) Are LLMs able to detect ambiguity in plural anaphoric expressions and identify possible referents? To address these questions, we design a set of experiments, examining pronoun production using next-token prediction tasks, pronoun interpretation, and ambiguity detection using different prompting strategies. We then assess how comparable LLMs are to humans in formulating and interpreting plural reference. We find that LLMs are sometimes aware of possible referents of ambiguous pronouns. However, they do not always follow human reference when choosing between interpretations, especially when the possible interpretation is not explicitly mentioned. In addition, they struggle to identify ambiguity without direct instruction. Our findings also reveal inconsistencies in the results across different types of experiments.
- Abstract(参考訳): 我々のゴールは、LLMが曖昧で曖昧な文脈で複数の参照をどのように表現し、解釈するかを研究することである。
1)LLMは、複数の参照を表す上で、人間的な嗜好を示すか?
2)LLMは複数のアナフォリック表現のあいまいさを検知し、参照候補を特定することができるか?
これらの課題に対処するため,我々は,次から次までの予測タスクを用いた代名詞生成,代名詞解釈,異なるプロンプト戦略を用いたあいまいさ検出など,一連の実験を設計した。
次に、複数の参照を定式化し、解釈する際に、LLMが人間にどの程度匹敵するかを評価する。
LLMは時として曖昧な代名詞の参照を意識していることが判明した。
しかし、解釈を選別する場合、特に解釈が明記されていない場合は、必ずしも人間の参照に従わない。
加えて、彼らは直接の指示なしに曖昧さを特定するのに苦労している。
また, 異なる種類の実験において, 結果に矛盾があることが判明した。
関連論文リスト
- Uncovering the Fragility of Trustworthy LLMs through Chinese Textual Ambiguity [16.065963688326242]
中国語の曖昧な物語文に遭遇した大言語モデル(LLM)の信頼性について検討する。
我々は、文脈とそれに対応するあいまいなペアであいまいな文を収集し、生成することで、ベンチマークデータセットを作成しました。
あいまいさに対処する際, LLMに顕著な脆弱性がみられ, ヒトとは大きく異なる挙動がみられた。
論文 参考訳(メタデータ) (2025-07-30T21:50:19Z) - Referential ambiguity and clarification requests: comparing human and LLM behaviour [11.336760165002831]
我々は、Minecraftダイアログコーパスの既存のアノテーションを2つ組み合わせた新しいコーパスを提示する。
これらの対話では、あいまいさと人間の間には弱い関係しか存在しないことが判明した。
LLMが明確化を問う能力は、近年の推論をシミュレートする能力に則っているかどうかを疑問視する。
論文 参考訳(メタデータ) (2025-07-14T16:28:00Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - Do LLMs write like humans? Variation in grammatical and rhetorical styles [0.6303112417588329]
大きな言語モデル(LLM)は、指示に従い、質問に答え、問題を解決する文法的なテキストを書くことができる。
進歩するにつれて、その出力を人文テキストと区別することは困難になっている。
論文 参考訳(メタデータ) (2024-10-21T15:35:44Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - Aligning Language Models to Explicitly Handle Ambiguity [22.078095273053506]
我々は,あいまいなクエリを扱うために,言語モデルを整列する新しいパイプラインであるAlignment with Perceived Ambiguity (APA)を提案する。
質問応答データセットの実験結果から、APAはLLMに対して、あいまいなクエリを明示的に検出し、管理する権限を持つことが示された。
我々の発見は、APAがゴールドスタンダードラベルのトレーニング、特にアウト・オブ・ディストリビューションのシナリオで優れていることを証明している。
論文 参考訳(メタデータ) (2024-04-18T07:59:53Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - In-Context Impersonation Reveals Large Language Models' Strengths and
Biases [56.61129643802483]
我々は、視覚と言語タスクを解く前に、LLMに異なるペルソナを仮定するよう依頼する。
異なる年齢の子どものふりをしたLSMが、ヒトのような発達段階を回復することがわかった。
言語に基づく推論タスクでは、ドメインエキスパートを装うLLMが、ドメイン専門家を装うLLMよりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-05-24T09:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。