論文の概要: What makes an entity salient in discourse?
- arxiv url: http://arxiv.org/abs/2508.16464v1
- Date: Fri, 22 Aug 2025 15:30:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.428556
- Title: What makes an entity salient in discourse?
- Title(参考訳): 会話においてエンティティが健全になる理由は何か?
- Authors: Amir Zeldes, Jessica Lin,
- Abstract要約: 主な参加者、オブジェクト、場所は目立たしく記憶に残るが、具体的なものは重要でなく、すぐに忘れられる。
談話の複数の要約における要約性に基づくサリエンスの段階的運用法を用いて,24の音声・書字ジャンルからのデータについて検討する。
以上の結果から,サリエンスに対する従来のアプローチは,サリエンススコアとある程度相関するが,例外なく単一の一般化は存在しないことが示唆された。
- 参考スコア(独自算出の注目度): 8.185354486103291
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entities in discourse vary broadly in salience: main participants, objects and locations are noticeable and memorable, while tangential ones are less important and quickly forgotten, raising questions about how humans signal and infer relative salience. Using a graded operationalization of salience based on summary-worthiness in multiple summaries of a discourse, this paper explores data from 24 spoken and written genres of English to extract a multifactorial complex of overt and implicit linguistic cues, such as recurring subjecthood or definiteness, discourse relations and hierarchy across utterances, as well as pragmatic functional inferences based on genre and communicative intent. Tackling the question 'how is the degree of salience expressed for each and every entity mentioned?' our results show that while previous approaches to salience all correlate with our salience scores to some extent, no single generalization is without exceptions, and the phenomenon cuts across all levels of linguistic representation.
- Abstract(参考訳): 主要な参加者、対象物、場所は目立たしく記憶に残るが、接尾辞は重要でなく、すぐに忘れられ、人間の信号がどのようにして相対的なサリエンスを推測するかという疑問が提起される。
本論文は,言論の複数の要約における要約親和性に基づく要約親和性の段階的運用法を用いて,英語の24種類のジャンルから,主題の繰り返しや定性,言論関係,発話間の階層化,およびジャンル的・コミュニケーション的意図に基づく実用的な機能的推論など,過度・暗黙的な言語的手がかりの多因子的複合体を抽出する。
以上の結果から,従来のサリエンスに対するアプローチは,サリエンススコアとある程度相関するが,単一の一般化は例外なく行われず,言語表現のあらゆるレベルにわたって減少することが明らかとなった。
関連論文リスト
- Dialogues Aspect-based Sentiment Quadruple Extraction via Structural Entropy Minimization Partitioning [54.25737182568224]
DiaASQは、与えられた複数ラウンドの多人数対話から、ターゲット・アスペクト・オピニオン・センチメントの4倍体を抽出することを目的としている。
まず、発話レベルで個々の感情要素を抽出し、次にサブ対話レベルで四重項をマッチングする。
論文 参考訳(メタデータ) (2025-08-07T04:22:17Z) - Non-verbal information in spontaneous speech -- towards a new framework
of analysis [0.5559722082623594]
本稿では,韻律信号の分類のための解析的スキーマと技術的概念実証を提供する。
3つの順序の韻律現象を解き放つ分類過程を示す。
散在する韻律パターンは、コミュニケーションと音声の組織化の理論を導くことができる。
論文 参考訳(メタデータ) (2024-03-06T08:03:05Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Revisiting Conversation Discourse for Dialogue Disentanglement [88.3386821205896]
本稿では,対話談話特性を最大限に活用し,対話の絡み合いを高めることを提案する。
我々は,会話の意味的文脈をより良くモデル化するために,リッチな構造的特徴を統合する構造認識フレームワークを開発した。
我々の研究は、より広範なマルチスレッド対話アプリケーションを促進する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-06T19:17:47Z) - Hierarchical Pronunciation Assessment with Multi-Aspect Attention [3.6825890616838066]
マルチアスペクト注意(HiPAMA)モデルを用いた階層的発音評価を提案する。
HiPAMAは言語構造を直接捉えるための粒度レベルを階層的に表現し、多視点の注意を喚起する。
実験結果の顕著な改善は,HiPAMAの堅牢性を示している。
論文 参考訳(メタデータ) (2022-11-15T12:49:35Z) - Did they answer? Subjective acts and intents in conversational discourse [48.63528550837949]
英会話の複数の主観的かつ主観的な解釈を含む最初の対話データセットを提示する。
意見の相違が曖昧であることを示し、異なる文脈要因についてより深く理解する必要がある。
論文 参考訳(メタデータ) (2021-04-09T16:34:19Z) - Aspectuality Across Genre: A Distributional Semantics Approach [25.816944882581343]
英語における動詞の語彙的側面の解釈は、文的含意を認識し、談話レベルの推論を学ぶ上で重要な役割を担っている。
アスペクト型クラス,状態対イベント,およびテクスチャ対テイリック事象の2つの基本次元を分散意味論で効果的にモデル化できることが示される。
論文 参考訳(メタデータ) (2020-10-31T19:37:22Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。