論文の概要: Construction and Evaluation of a Self-Attention Model for Semantic
Understanding of Sentence-Final Particles
- arxiv url: http://arxiv.org/abs/2210.00282v1
- Date: Sat, 1 Oct 2022 13:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:19:47.470006
- Title: Construction and Evaluation of a Self-Attention Model for Semantic
Understanding of Sentence-Final Particles
- Title(参考訳): 文末素粒子の意味理解のためのセルフ・アテンションモデルの構築と評価
- Authors: Shuhei Mandokoro, Natsuki Oka, Akane Matsushima, Chie Fukada, Yuko
Yoshimura, Koji Kawahara and Kazuaki Tanaka
- Abstract要約: 文末助詞は,命題に対する話者の精神的態度や介助者を表現するため,話し言葉において重要な役割を担っている。
本稿では,言語やイメージに加えて,様々な主観的感覚を入力として捉え,単語と主観的感覚の関係を学習する自己認識モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sentence-final particles serve an essential role in spoken Japanese because
they express the speaker's mental attitudes toward a proposition and/or an
interlocutor. They are acquired at early ages and occur very frequently in
everyday conversation. However, there has been little proposal for a
computational model of acquiring sentence-final particles. This paper proposes
Subjective BERT, a self-attention model that takes various subjective senses in
addition to language and images as input and learns the relationship between
words and subjective senses. An evaluation experiment revealed that the model
understands the usage of "yo", which expresses the speaker's intention to
communicate new information, and that of "ne", which denotes the speaker's
desire to confirm that some information is shared.
- Abstract(参考訳): 文末助詞は命題や対話者に対する話者の精神的な態度を表現するため、日本語で重要な役割を果たす。
早期に獲得され、日常的な会話で頻繁に発生する。
しかし、文末粒子を取得するための計算モデルはほとんど提案されていない。
本稿では,言語や画像に加えて,様々な主観的感覚を入力とし,単語と主観的感覚の関係を学習する自己意識モデルである主観的bertを提案する。
評価実験により,新しい情報を伝達しようとする話者の意図を表現した「よ」と,情報を共有することを確認しようとする話者の願望を示す「ね」の用法をモデルが理解していることが判明した。
関連論文リスト
- To Drop or Not to Drop? Predicting Argument Ellipsis Judgments: A Case Study in Japanese [26.659122101710068]
本研究では,日本語のバランスコーパスにおいて,2000以上のデータポイントで特定の議論を省略すべきか否かについて検討する。
データは、ネイティブ話者がこうした判断に対して共通の基準を共有していることを示している。
システムの予測と特定の言語的側面における人間の判断とのギャップが明らかになる。
論文 参考訳(メタデータ) (2024-04-17T12:26:52Z) - MindDial: Belief Dynamics Tracking with Theory-of-Mind Modeling for Situated Neural Dialogue Generation [62.44907105496227]
MindDialは、Mind-of-mindモデリングで位置決め自由形式の応答を生成できる、新しい対話型フレームワークである。
本研究では、話者の信念と話者の聴取者の信念を予測できる明示的なマインドモジュールを導入する。
筆者らのフレームワークは,提案手法と微調整モデルの両方に適用され,共通地盤アライメントとネゴシエーションの両方を含むシナリオで評価される。
論文 参考訳(メタデータ) (2023-06-27T07:24:32Z) - NOPE: A Corpus of Naturally-Occurring Presuppositions in English [33.69537711677911]
英語におけるNaturally-Occurring Presuppositions(NOPE)を紹介する。
本研究は,10種類のプレポーズトリガーの文脈感度について検討した。
我々は、人間の推論を予測する機械学習モデルの能力を評価する。
論文 参考訳(メタデータ) (2021-09-14T22:03:23Z) - Extending rational models of communication from beliefs to actions [10.169856458866088]
話し手は相手の信念に影響を与え、行動を形成する。
本研究では,純粋に情報的対象を持つ信念指向話者と,楽器的目的を持つ行動指向話者と,この2つを統合する統合話者の3つの話者モデルを開発する。
今後のリスナー行動における生産選択の基盤となる選択が,非リテラル言語の関連性や柔軟な利用をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-25T13:58:01Z) - Who Responded to Whom: The Joint Effects of Latent Topics and Discourse
in Conversation Structure [53.77234444565652]
会話談話における応答関係を同定し,会話の開始に応答発話をリンクする。
単語分布における潜在トピックと会話を学習し,ペアワイズ開始応答リンクを予測するモデルを提案する。
英語と中国語の会話における実験結果から,我々のモデルは過去の芸術の状況を大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T17:46:00Z) - Did they answer? Subjective acts and intents in conversational discourse [48.63528550837949]
英会話の複数の主観的かつ主観的な解釈を含む最初の対話データセットを提示する。
意見の相違が曖昧であることを示し、異なる文脈要因についてより深く理解する必要がある。
論文 参考訳(メタデータ) (2021-04-09T16:34:19Z) - I Beg to Differ: A study of constructive disagreement in online
conversations [15.581515781839656]
コンテンツ論争を含む7,425のwikipediaトークページ会話のコーパスを構築した。
モデレーターによる調停に不一致がエスカレートされるかどうかを予測するタスクを定義します。
我々は,様々なニューラルモデルを開発し,会話の構造を考慮すれば予測精度が向上することを示す。
論文 参考訳(メタデータ) (2021-01-26T16:36:43Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Improving Factual Consistency Between a Response and Persona Facts [64.30785349238619]
応答生成のためのニューラルネットワークは、意味論的に妥当であるが、必ずしも話者のペルソナを記述する事実と矛盾しない応答を生成する。
我々は,これらのモデルを強化学習により微調整し,応答とペルソナ事実の一貫性と意味的妥当性を明確に把握する効率的な報酬関数を提案する。
論文 参考訳(メタデータ) (2020-04-30T18:08:22Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。