論文の概要: Interpretation modeling: Social grounding of sentences by reasoning over
their implicit moral judgments
- arxiv url: http://arxiv.org/abs/2312.03726v1
- Date: Mon, 27 Nov 2023 07:50:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:07:05.525002
- Title: Interpretation modeling: Social grounding of sentences by reasoning over
their implicit moral judgments
- Title(参考訳): 解釈モデル:その暗黙的道徳的判断に対する推論による文の社会的基盤化
- Authors: Liesbeth Allein, Maria Mihaela Tru\c{s}c\v{a}, Marie-Francine Moens
- Abstract要約: 単一のゴールド標準解釈はほとんど存在せず、自然言語処理における従来の仮定に挑戦する。
この研究は、文の基本的意味論のいくつかの解釈をモデル化することを含む解釈モデリング(IM)タスクを導入する。
実験と分析をサポートするために、第一種IMデータセットがキュレーションされている。
- 参考スコア(独自算出の注目度): 24.133419857271505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The social and implicit nature of human communication ramifies readers'
understandings of written sentences. Single gold-standard interpretations
rarely exist, challenging conventional assumptions in natural language
processing. This work introduces the interpretation modeling (IM) task which
involves modeling several interpretations of a sentence's underlying semantics
to unearth layers of implicit meaning. To obtain these, IM is guided by
multiple annotations of social relation and common ground - in this work
approximated by reader attitudes towards the author and their understanding of
moral judgments subtly embedded in the sentence. We propose a number of
modeling strategies that rely on one-to-one and one-to-many generation methods
that take inspiration from the philosophical study of interpretation. A
first-of-its-kind IM dataset is curated to support experiments and analyses.
The modeling results, coupled with scrutiny of the dataset, underline the
challenges of IM as conflicting and complex interpretations are socially
plausible. This interplay of diverse readings is affirmed by automated and
human evaluations on the generated interpretations. Finally, toxicity analyses
in the generated interpretations demonstrate the importance of IM for refining
filters of content and assisting content moderators in safeguarding the safety
in online discourse.
- Abstract(参考訳): 人間のコミュニケーションの社会的かつ暗黙的な性質は、文章に対する読者の理解を損なう。
単一のゴールド標準解釈はほとんど存在せず、自然言語処理における従来の仮定に挑戦する。
この研究は、文の基本的意味論のいくつかの解釈を暗黙的な意味の層を掘り起こすための解釈モデリング(IM)タスクを導入する。
これを得るために、IMは、著者に対する読者の態度と、文中に微妙に埋め込まれた道徳的判断に対する理解によって近似された、複数の社会的関係と共通の根拠のアノテーションによってガイドされる。
本稿では,解釈の哲学的研究から着想を得た一対一および一対多の手法に基づくモデリング戦略を提案する。
実験と分析をサポートするために、最初のimデータセットがキュレートされる。
モデリングの結果はデータセットの精査と相まって、矛盾や複雑な解釈が社会的に妥当であるとして、IMの課題を浮き彫りにしている。
この多様な読解の相互作用は、生成された解釈の自動化と人間による評価によって確認される。
最後に、生成した解釈における毒性分析は、コンテンツのフィルタを精製し、オンライン談話の安全を守るためにコンテンツモデレーターを支援するためのIMの重要性を示す。
関連論文リスト
- Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Did they answer? Subjective acts and intents in conversational discourse [48.63528550837949]
英会話の複数の主観的かつ主観的な解釈を含む最初の対話データセットを提示する。
意見の相違が曖昧であることを示し、異なる文脈要因についてより深く理解する必要がある。
論文 参考訳(メタデータ) (2021-04-09T16:34:19Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - An Investigation of Language Model Interpretability via Sentence Editing [5.492504126672887]
我々は、事前学習言語モデル(PLM)の解釈可能性をテストするテストベッドとして、文編集データセットを再使用した。
これにより、PLMの解釈可能性に関する一連の質問に対して、系統的な調査を行うことができる。
この調査は、例えば、一般的な理解とは対照的に、注意重みが人間の合理性とよく相関しているという新たな洞察を生み出す。
論文 参考訳(メタデータ) (2020-11-28T00:46:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。