論文の概要: Intention and Face in Dialog
- arxiv url: http://arxiv.org/abs/2406.04109v1
- Date: Thu, 6 Jun 2024 14:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 14:40:14.298840
- Title: Intention and Face in Dialog
- Title(参考訳): 対話における意図と顔
- Authors: Adil Soubki, Owen Rambow,
- Abstract要約: 本稿では、意図と礼儀正しさの両方を分類するために訓練された3つの計算システムについて分析する。
丁寧な理論では、エージェントは彼らの欲求(肯定的な顔)に感謝したいという願望に付き添い、無関心で自由(否定的な顔)を維持したいという補完的な欲求に出席する。
音声行為と同様に、発話はいわゆる顔行為を行うことができ、これは話者や聞き手の肯定的な顔や否定的な顔を上げたり脅したりすることができる。
- 参考スコア(独自算出の注目度): 4.984601297028258
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of face described by Brown and Levinson (1987) has been studied in great detail, but a critical aspect of the framework, that which focuses on how intentions mediate the planning of turns which impose upon face, has received far less attention. We present an analysis of three computational systems trained for classifying both intention and politeness, focusing on how the former influences the latter. In politeness theory, agents attend to the desire to have their wants appreciated (positive face), and a complementary desire to act unimpeded and maintain freedom (negative face). Similar to speech acts, utterances can perform so-called face acts which can either raise or threaten the positive or negative face of the speaker or hearer. We begin by using an existing corpus to train a model which classifies face acts, achieving a new SoTA in the process. We then observe that every face act has an underlying intention that motivates it and perform additional experiments integrating dialog act annotations to provide these intentions by proxy. Our analysis finds that dialog acts improve performance on face act detection for minority classes and points to a close relationship between aspects of face and intent.
- Abstract(参考訳): Brown and Levinson (1987) によって記述された顔の概念は、非常に詳細に研究されてきたが、その枠組みの重要な側面は、顔に課される回転の計画をどのように仲介するかに焦点を当てたものである。
本稿では,前者が後者にどのように影響するかに着目し,意図と礼儀正しさの両方を分類するために訓練された3つの計算システムについて分析する。
丁寧な理論では、エージェントは彼らの欲求(肯定的な顔)に感謝したいという願望に参画し、無力で自由(否定的な顔)を維持したいという補完的な願望に参画する。
音声行為と同様に、発話はいわゆる顔行為を行うことができ、これは話者や聞き手の肯定的な顔や否定的な顔を上げたり脅したりすることができる。
まず、既存のコーパスを使用して、顔の動作を分類するモデルをトレーニングし、その過程で新しいSoTAを実現する。
次に、すべての顔アクトが、それを動機づける基本的な意図を持っていることを観察し、ダイアログアクトアノテーションを統合して、これらの意図をプロキシによって提供します。
分析の結果, ダイアログは, 少数クラスにおける顔行動検出の性能向上に寄与し, 顔と意図の面の密接な関係を指摘できることがわかった。
関連論文リスト
- High-fidelity and Lip-synced Talking Face Synthesis via Landmark-based Diffusion Model [89.29655924125461]
本稿では,発話顔生成のためのランドマークに基づく新しい拡散モデルを提案する。
まず、音声から唇と顎の目印運動への不明瞭さの少ないマッピングを確立する。
そこで我々はTalkFormerと呼ばれる革新的な条件付けモジュールを導入し、合成された動きをランドマークで表現された動きと整合させる。
論文 参考訳(メタデータ) (2024-08-10T02:58:28Z) - Parametric Implicit Face Representation for Audio-Driven Facial
Reenactment [52.33618333954383]
本稿では,制御可能かつ高品質な発話ヘッドを生成可能な,新しい音声駆動型顔再現フレームワークを提案する。
具体的には、パラメトリックな暗示表現は、3次元顔モデルの解釈可能なパラメータで暗示表現をパラメータ化する。
提案手法は,話者の身元や話し方に忠実な従来手法よりも現実的な結果が得られる。
論文 参考訳(メタデータ) (2023-06-13T07:08:22Z) - Imitator: Personalized Speech-driven 3D Facial Animation [63.57811510502906]
State-of-the-artメソッドは、ターゲットアクターの顔トポロジを変形させ、ターゲットアクターのアイデンティティ固有の話し方や顔の慣用性を考慮せずに入力オーディオを同期させる。
本稿では,音声による表情合成手法であるImitatorについて述べる。
提案手法は,ターゲットアクターの発話スタイルを保ちながら,入力音声から時間的コヒーレントな表情を生成する。
論文 参考訳(メタデータ) (2022-12-30T19:00:02Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - Learning Facial Representations from the Cycle-consistency of Face [23.23272327438177]
顔特徴の周期一貫性を自由監督信号として導入し、ラベルのない顔画像から顔の表情を学習する。
この学習は、顔の動きサイクルの制約とアイデンティティのサイクルの制約を重畳することによって実現される。
我々のアプローチは既存の手法と競合し、アンタングル表現に埋め込まれたリッチでユニークな情報を実証する。
論文 参考訳(メタデータ) (2021-08-07T11:30:35Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Keeping Up Appearances: Computational Modeling of Face Acts in
Persuasion Oriented Discussions [2.9628298226732612]
説得的会話における顔行動のモデル化のための枠組みを提案する。
このフレームワークは、説得会話における非対称的役割間の顔行動利用の差異に関する洞察を明らかにする。
計算モデルを用いて、顔の振る舞いを識別し、重要な会話結果を予測することができる。
論文 参考訳(メタデータ) (2020-09-22T21:02:14Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - From A Glance to "Gotcha": Interactive Facial Image Retrieval with
Progressive Relevance Feedback [72.29919762941029]
本稿では,目撃者から徐々にフィードバックを得て顔画像を取得するためのエンドツーエンドフレームワークを提案する。
追加のアノテーションを必要とせずに、私たちのモデルは少しのレスポンスの努力を犠牲にして適用できます。
論文 参考訳(メタデータ) (2020-07-30T18:46:25Z) - Comprehensive Facial Expression Synthesis using Human-Interpretable
Language [33.11402372756348]
言語に基づく表情記述から新しい表情合成モデルを提案する。
本手法は,詳細な表情で顔画像の合成を行う。
さらに, 顔の特徴に言語特徴を効果的に埋め込むことで, 個々の単語を制御し, 顔の動きを処理できる。
論文 参考訳(メタデータ) (2020-07-16T07:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。