論文の概要: MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Constructing Moral Discussions
- arxiv url: http://arxiv.org/abs/2212.10720v1
- Date: Wed, 21 Dec 2022 02:21:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:37:41.278313
- Title: MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Constructing Moral Discussions
- Title(参考訳): MoralDial: モラルディスカッションの構築によるモラル対話システムの訓練と評価のためのフレームワーク
- Authors: Hao Sun, Zhexin Zhang, Fei Mi, Yasheng Wang, Wei Liu, Jianwei Cui, Bin
Wang, Qun Liu, Minlie Huang
- Abstract要約: モラル対話システムは、ユーザの信頼を得ることによって、ユーザを接続し、会話のエンゲージメントを高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
- 参考スコア(独自算出の注目度): 71.25236662907056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Morality in dialogue systems has raised great attention in research recently.
A moral dialogue system could better connect users and enhance conversation
engagement by gaining users' trust. In this paper, we propose a framework,
MoralDial to train and evaluate moral dialogue systems. In our framework, we
first explore the communication mechanisms of morality and resolve expressed
morality into four sub-modules. The sub-modules indicate the roadmap for
building a moral dialogue system. Based on that, we design a simple yet
effective method: constructing moral discussions from Rules of Thumb (RoTs)
between simulated specific users and the dialogue system. The constructed
discussion consists of expressing, explaining, and revising the moral views in
dialogue exchanges, which makes conversational models learn morality well in a
natural manner. Furthermore, we propose a novel evaluation method in the
framework. We evaluate the multiple aspects of morality by judging the relation
between dialogue responses and RoTs in discussions, where the multifaceted
nature of morality is particularly considered. Automatic and manual experiments
demonstrate that our framework is promising to train and evaluate moral
dialogue systems.
- Abstract(参考訳): 対話システムにおける道徳性は近年研究において大きな注目を集めている。
モラル対話システムは、ユーザの信頼を得ることで、ユーザをつなげ、会話のエンゲージメントを高めることができる。
本稿では,道徳的対話システムの訓練と評価を行うためのフレームワークであるMoralDialを提案する。
本稿ではまず,モラルのコミュニケーション機構を探求し,モラルを4つのサブモジュールに分解する。
サブモジュールは道徳的対話システムを構築するためのロードマップを示す。
そこで我々は,シミュレーションされた特定のユーザと対話システムの間で,Thumbのルール(RoT)から道徳的議論を構築するという,シンプルで効果的な手法を設計する。
構築された議論は、対話交換における道徳観を表現し、説明し、修正することにより、会話モデルが自然に道徳をよく学習する。
さらに,本フレームワークにおける新しい評価手法を提案する。
モラルの多面性が特に考慮される議論において,対話反応と腐敗の関係を判断し,モラルの多面性を評価する。
自動的および手動的な実験により、我々のフレームワークは道徳的対話システムの訓練と評価を約束している。
関連論文リスト
- Evaluating Moral Beliefs across LLMs through a Pluralistic Framework [22.0799438612003]
本研究では,4つの著名な大規模言語モデルの道徳的信念を評価するために,新しい3つのモジュール・フレームワークを提案する。
我々は、道徳的単語から派生した中国語の道徳的選択シナリオ472のデータセットを構築した。
これらの道徳的選択をランク付けすることで、異なる言語モデルによって保持される様々な道徳的信念を識別する。
論文 参考訳(メタデータ) (2024-11-06T04:52:38Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - A Corpus for Understanding and Generating Moral Stories [84.62366141696901]
機械のこれらの能力を評価するために,2つの理解タスクと2つの世代タスクを提案する。
我々は、中国語と英語で書かれた道徳的物語の新しいデータセットであるSTORALを提示する。
論文 参考訳(メタデータ) (2022-04-20T13:12:36Z) - The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems [36.90292508433193]
道徳的判断は普遍的ではないので、道徳的偏見を緩和することは困難である。
Moral Integrity Corpusは38kの即応対の道徳的仮定を捉えている。
我々は、現在のニューラルネットワークモデルが、これまで見つからなかったインタラクションを合理的に記述する新しいRoTを自動生成できることを示します。
論文 参考訳(メタデータ) (2022-04-06T18:10:53Z) - DynaEval: Unifying Turn and Dialogue Level Evaluation [60.66883575106898]
統合された自動評価フレームワークDynaEvalを提案する。
ターンレベルの評価を行うことができるが、対話全体の品質を公平に考慮することもできる。
実験の結果,DynaEvalは最先端の対話コヒーレンスモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-06-02T12:23:18Z) - Designing for Engaging with News using Moral Framing towards Bridging
Ideological Divides [6.177805579183265]
本稿は、モラル財団として知られる基本的人的価値の枠組みを用いて、米国のニュース消費者に関与するよう教育することで、イデオロギー部門に対処するための作業設計システムについて述べる。
我々は、ユーザーが反対の見解に対する理解に挑戦するように促す一連の新機能を設計し、実装する。
本研究は,71名の参加者を6~8日間に分けて各デザインのフィールド評価を行い,対象者の道徳的価値を再設定したことを示す証拠を見出した。
論文 参考訳(メタデータ) (2021-01-27T07:20:48Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Rethinking Dialogue State Tracking with Reasoning [76.0991910623001]
本稿では, 対話状態の段階的追跡を, バックエンドデータの助けを借りて行うことを提案する。
実験の結果,MultiWOZ 2.1の連立信条精度は38.6%向上した。
論文 参考訳(メタデータ) (2020-05-27T02:05:33Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。