論文の概要: Rehearsal: Simulating Conflict to Teach Conflict Resolution
- arxiv url: http://arxiv.org/abs/2309.12309v1
- Date: Thu, 21 Sep 2023 17:59:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 13:37:22.322900
- Title: Rehearsal: Simulating Conflict to Teach Conflict Resolution
- Title(参考訳): リハーサル:紛争解決を教えるために紛争をシミュレーションする
- Authors: Omar Shaikh, Valentino Chai, Michele J. Gelfand, Diyi Yang, Michael S.
Bernstein
- Abstract要約: リハーサル(Rehearsal)は、ユーザーがシミュレート可能なインターロケータで競合をリハーサルできるシステムである。
ユーザはRehearsalを使って、事前に定義されたさまざまなコンフリクトシナリオの処理を実践できる。
リハーサルはIRPを使って紛争解決理論に基づく発話を生成する。
- 参考スコア(独自算出の注目度): 54.32934135393982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpersonal conflict is an uncomfortable but unavoidable fact of life.
Navigating conflict successfully is a skill -- one that can be learned through
deliberate practice -- but few have access to effective training or feedback.
To expand this access, we introduce Rehearsal, a system that allows users to
rehearse conflicts with a believable simulated interlocutor, explore
counterfactual "what if?" scenarios to identify alternative conversational
paths, and learn through feedback on how and when to apply specific conflict
strategies. Users can utilize Rehearsal to practice handling a variety of
predefined conflict scenarios, from office disputes to relationship issues, or
they can choose to create their own. To enable Rehearsal, we develop IRP
prompting, a method of conditioning output of a large language model on the
influential Interest-Rights-Power (IRP) theory from conflict resolution.
Rehearsal uses IRP to generate utterances grounded in conflict resolution
theory, guiding users towards counterfactual conflict resolution strategies
that help de-escalate difficult conversations. In a between-subjects
evaluation, 40 participants engaged in an actual conflict with a confederate
after training. Compared to a control group with lecture material covering the
same IRP theory, participants with simulated training from Rehearsal
significantly improved their performance in the unaided conflict: they reduced
their use of escalating competitive strategies by an average of 67%, while
doubling their use of cooperative strategies. Overall, Rehearsal highlights the
potential effectiveness of language models as tools for learning and practicing
interpersonal skills.
- Abstract(参考訳): 対人対立は不快だが避けられない人生の事実である。
コンフリクトをうまくナビゲートすることは、意図的なプラクティスを通じて学べるスキルだが、効果的なトレーニングやフィードバックへのアクセスは少ない。
このアクセスを拡大するために、ユーザーが信頼できるシミュレートされた対話者とのコンフリクトをリハーサルできるシステムであるrehearsalを紹介し、代替の会話パスを識別する反事実的シナリオを探索し、特定のコンフリクト戦略を適用する方法と方法に関するフィードバックを通じて学習する。
ユーザはRehearsalを使って、オフィスの紛争から関係の問題まで、事前に定義されたさまざまなコンフリクトシナリオを扱うことができる。
リハーサルを実現するため,大言語モデルの出力を競合解決からイントラスト・ライツ・パワー(IRP)理論に基づいて条件付けするIRPプロンプトを開発した。
リハーサルは、IRPを使用して紛争解決理論に基づく発話を生成し、難しい会話をエスカレートする反現実的な紛争解決戦略にユーザーを誘導する。
対象間の評価では,訓練後の連盟と実際に対立する参加者が40名であった。
同じIRP理論をカバーする講義資料を持つコントロールグループと比較すると、リハーサルからの模擬トレーニングの参加者は、競争戦略のエスカレートを平均67%減らし、協力戦略を2倍にすることで、未解決の紛争におけるパフォーマンスを著しく向上させた。
全体として、リハーサルは、対人スキルの学習と実践のためのツールとして、言語モデルの潜在的有効性を強調している。
関連論文リスト
- Minion: A Technology Probe for Resolving Value Conflicts through Expert-Driven and User-Driven Strategies in AI Companion Applications [35.39908177331248]
私たちは、AIコンパニオンとの競合に関する151のユーザ苦情を分析したフォーマティブな研究を行います。
それらに基づいて、ユーザによる人間とAIの価値の衝突を解決するテクノロジプローブMinionを作りました。
我々は,価値相反を解決するためのユーザの反応,好み,ニーズを要約し,矛盾を低減し,より効果的に解決するための設計上の意味を提案する。
論文 参考訳(メタデータ) (2024-11-11T14:49:43Z) - Tell Me What You Don't Know: Enhancing Refusal Capabilities of Role-Playing Agents via Representation Space Analysis and Editing [54.098203568194606]
我々は,文脈知識の競合要求,パラメトリック知識の競合要求,非競合要求を含む評価ベンチマークを開発する。
ほとんどのRPAは、異なる競合要求に対して、大幅なパフォーマンスギャップを動作します。
本稿では、競合する要求を拒否領域に都合よくシフトさせる軽量な表現編集手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T13:18:12Z) - Discerning and Resolving Knowledge Conflicts through Adaptive Decoding with Contextual Information-Entropy Constraint [20.543282448771336]
本稿では,知識が相反するかどうかを識別し,解決するための適応的復号法を提案する。
実験により、COIECDは現実的なデータセットにおける知識の衝突に対して強い性能と堅牢性を示すことが示された。
論文 参考訳(メタデータ) (2024-02-19T07:10:30Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Understanding Interpersonal Conflict Types and their Impact on
Perception Classification [7.907976678407914]
我々は、新しいアノテーションスキームを使用し、コンフリクトアスペクトアノテーションとコンフリクトアスペクトアノテーションの新しいデータセットをリリースする。
次に、ある状況において、ある個人の行動が正しいものであると認識するかどうかを予測する分類器を構築します。
我々の発見は、紛争や社会規範を理解する上で重要な意味を持つ。
論文 参考訳(メタデータ) (2022-08-18T10:39:35Z) - Modeling Non-Cooperative Dialogue: Theoretical and Empirical Insights [11.462075538526703]
視覚対話タスクの完了時に非協調的インターロケータを識別するエージェントの能力について検討する。
本研究では,非協調的インターロケータを同定する理論モデルの開発に学習理論のツールを使用し,この理論を適用して異なるコミュニケーション戦略を解析する。
論文 参考訳(メタデータ) (2022-07-15T02:08:41Z) - Diluted Near-Optimal Expert Demonstrations for Guiding Dialogue
Stochastic Policy Optimisation [0.716879432974126]
学習対話エージェントは、人間対人間の会話からその振る舞いを推測することができる。
学習プロセスを高速化する一つの解決策は、専門家の助けを借りてエージェントの探索を導くことである。
我々は,指導専門家がほぼ最適手工芸政策である対話政策の模倣学習戦略をいくつか提示する。
論文 参考訳(メタデータ) (2020-11-25T15:00:36Z) - Guided Dialog Policy Learning without Adversarial Learning in the Loop [103.20723982440788]
対話政策とともに報酬関数を学習するために,多くの逆学習法が提案されている。
敵の訓練を2つの段階に分割することを提案する。
まず,識別器を補助対話生成器で訓練し,得られた報酬モデルを共通RL法に組み込んで対話ポリシー学習を指導する。
論文 参考訳(メタデータ) (2020-04-07T11:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。