論文の概要: Fostering User Engagement in the Critical Reflection of Arguments
- arxiv url: http://arxiv.org/abs/2308.09061v1
- Date: Thu, 17 Aug 2023 15:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 16:16:53.264254
- Title: Fostering User Engagement in the Critical Reflection of Arguments
- Title(参考訳): 議論の批判的反映におけるユーザエンゲージメントの促進
- Authors: Klaus Weber, Annalena Aicher, Wolfang Minker, Stefan Ultes, Elisabeth
Andr\'e
- Abstract要約: 本研究では,人間との対話を行うシステムを提案する。
ユーザが既存の意見に集中しすぎれば,システムに介入することが可能になる。
58名の被験者を対象に,本モデルと介入機構の効果について調査を行った。
- 参考スコア(独自算出の注目度): 3.26297440422721
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A natural way to resolve different points of view and form opinions is
through exchanging arguments and knowledge. Facing the vast amount of available
information on the internet, people tend to focus on information consistent
with their beliefs. Especially when the issue is controversial, information is
often selected that does not challenge one's beliefs. To support a fair and
unbiased opinion-building process, we propose a chatbot system that engages in
a deliberative dialogue with a human. In contrast to persuasive systems, the
envisioned chatbot aims to provide a diverse and representative overview -
embedded in a conversation with the user. To account for a reflective and
unbiased exploration of the topic, we enable the system to intervene if the
user is too focused on their pre-existing opinion. Therefore we propose a model
to estimate the users' reflective engagement (RUE), defined as their critical
thinking and open-mindedness. We report on a user study with 58 participants to
test our model and the effect of the intervention mechanism, discuss the
implications of the results, and present perspectives for future work. The
results show a significant effect on both user reflection and total user focus,
proving our proposed approach's validity.
- Abstract(参考訳): 異なる見解を解決し意見を形成する自然な方法は、議論と知識を交換することである。
インターネット上の膨大な情報に直面すると、人々は自分の信念に合致した情報に集中する傾向がある。
特に議論の的になっている場合、情報はしばしば自分の信念に異議を唱えない。
公平で偏見のない意見形成プロセスを支援するために,人間との対話を行うチャットボットシステムを提案する。
説得的なシステムとは対照的に、想定されたチャットボットは、ユーザとの会話に埋め込まれた多様で代表的な概要を提供することを目的としている。
このトピックの反射的かつ偏見のない探索を考慮に入れるため、ユーザが既存の意見に集中しすぎている場合、システムが介入できるようにする。
そこで本稿では,ユーザのリフレクティブエンゲージメント(RUE)を批判的思考とオープンマインドネスとして評価するモデルを提案する。
本研究は,58名の参加者を対象に,我々のモデルと介入メカニズムの効果を検証し,その結果の意義,今後の研究への展望について報告する。
その結果,ユーザリフレクションと全ユーザフォーカスに有意な影響を及ぼし,提案手法の有効性が証明された。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - ArguMentor: Augmenting User Experiences with Counter-Perspectives [4.84187718353576]
私たちはArguMentorを設計しました。
LLMを使用してそれらに対する反論を識別し、現在のイベントに基づいたコンテキストベースの要約を生成する。
評価の結果、参加者はより多くの議論や反論を生成でき、システムに関わった後、平均すると、より穏健な視点を持てることが明らかとなった。
論文 参考訳(メタデータ) (2024-06-04T21:43:56Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Perspectives on Large Language Models for Relevance Judgment [56.935731584323996]
大型言語モデル(LLM)は、関連判断を支援することができると主張している。
自動判定が検索システムの評価に確実に利用できるかどうかは不明である。
論文 参考訳(メタデータ) (2023-04-13T13:08:38Z) - Thread With Caution: Proactively Helping Users Assess and Deescalate
Tension in Their Online Discussions [13.455968033357065]
オンラインディスカッションプラットフォームにとって、インキュビティは依然として大きな課題だ。
伝統的に、プラットフォームはモデレーターを -- アルゴリズムの支援の有無に関わらず -- 頼りにしており、コメントの削除やユーザー禁止といった修正措置を取っている。
本研究では,会話における既存の緊張感に対する意識を積極的に高め,ユーザに直接力を与える補完的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-12-02T19:00:03Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - Linking the Dynamics of User Stance to the Structure of Online
Discussions [6.853826783413853]
議論対象に対するユーザのスタンスが,オンライン上での議論に影響を及ぼすかどうかを考察する。
機械学習モデルに基づいた一連の予測演習をセットアップしました。
その結果,最も情報に富む特徴は,ユーザが参加することを好む議論のスタンス・コンポジションに関係していることがわかった。
論文 参考訳(メタデータ) (2021-01-25T02:08:54Z) - Helping users discover perspectives: Enhancing opinion mining with joint
topic models [5.2424255020469595]
本稿では,共同トピックモデリングによる意見マイニングの強化について考察する。
我々は,抽出された視点の人間の理解可能性を評価するユーザスタディにおいて,共同トピックモデル(TAM,JST,VODUM,LAM)を4つ評価した。
論文 参考訳(メタデータ) (2020-10-23T16:13:06Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。