論文の概要: "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations
- arxiv url: http://arxiv.org/abs/2209.02508v1
- Date: Tue, 6 Sep 2022 14:00:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:44:45.880349
- Title: "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations
- Title(参考訳): 「ママはいつも説明の仕方で理解できた」:説明の作り方を学ぶための対話コーパス
- Authors: Henning Wachsmuth, Milad Alshomary
- Abstract要約: 対話的説明の最初のコーパスを導入し,人間の説明の仕方についてNLP研究を可能にする。
コーパスは、Wiredのテレビシリーズ『emph5 Levels』の65の英訳対話からなり、13のトピックと5人の熟練者について解説している。
- 参考スコア(独自算出の注目度): 26.540485804067536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI is more and more pervasive in everyday life, humans have an increasing
demand to understand its behavior and decisions. Most research on explainable
AI builds on the premise that there is one ideal explanation to be found. In
fact, however, everyday explanations are co-constructed in a dialogue between
the person explaining (the explainer) and the specific person being explained
to (the explainee). In this paper, we introduce a first corpus of dialogical
explanations to enable NLP research on how humans explain as well as on how AI
can learn to imitate this process. The corpus consists of 65 transcribed
English dialogues from the Wired video series \emph{5 Levels}, explaining 13
topics to five explainees of different proficiency. All 1550 dialogue turns
have been manually labeled by five independent professionals for the topic
discussed as well as for the dialogue act and the explanation move performed.
We analyze linguistic patterns of explainers and explainees, and we explore
differences across proficiency levels. BERT-based baseline results indicate
that sequence information helps predicting topics, acts, and moves effectively
- Abstract(参考訳): AIは日々の生活に広く浸透しているため、人間はその行動や決定を理解する必要性が高まっている。
説明可能なAIに関するほとんどの研究は、発見すべき理想的な説明が1つあるという前提に基づいている。
しかし、実際は、説明人(説明人)と説明されている特定の人(説明人)の対話において、日常的な説明が共同構築されている。
本稿では,人間の説明の仕方と,AIがこのプロセスの模倣を学べる方法についてのNLP研究を可能にするための,対話的説明の最初のコーパスを紹介する。
このコーパスは、有線ビデオシリーズ『\emph{5 levels}』の65の英語対話から成り、13の話題を5人の異なる解説者に説明している。
1550回すべての対話は、5人の独立した専門家によって手動でラベル付けされ、対話行為と説明動作が議論された。
説明者と説明者の言語パターンを分析し,熟練度レベルの差異について検討する。
bertベースベースラインの結果から,シーケンス情報はトピック,行動,移動の予測に有効であることが示唆される
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - "Is ChatGPT a Better Explainer than My Professor?": Evaluating the Explanation Capabilities of LLMs in Conversation Compared to a Human Baseline [23.81489190082685]
説明は知識共有の基礎を形成し、コミュニケーションの原則、社会的ダイナミクス、学習理論に基づいて構築される。
本研究は、説明者や説明者が会話で採用するさまざまな戦略を理解するための枠組みである説明行為に関する過去の研究を活用し、相手を説明・理解・関与する。
この1年で生成AIが台頭したことにより、LLM(Large Language Models)の能力と、専門家による会話環境における説明能力の強化について、より深く理解したいと思っています。
論文 参考訳(メタデータ) (2024-06-26T17:33:51Z) - Modeling the Quality of Dialogical Explanations [21.429245729478918]
本研究では,説明者と説明者の相互作用の観点から,説明対話について検討する。
対話の流れを分析し、専門家の対話に現れるものと比較する。
長い入力を処理できる2つの言語モデルを用いてインタラクションフローを符号化する。
論文 参考訳(メタデータ) (2024-03-01T16:49:55Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Providing personalized Explanations: a Conversational Approach [0.5156484100374058]
そこで本稿では,説明者との対話を通じて,パーソナライズされた説明を説明人に伝達する手法を提案する。
我々は、説明人が理解し、説明者が認識している最初の主張についての説明が存在する限り、説明人が最初の主張を正当化しているため、会話が終了することを証明する。
論文 参考訳(メタデータ) (2023-07-21T09:34:41Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。