論文の概要: "I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue
- arxiv url: http://arxiv.org/abs/2603.11274v1
- Date: Wed, 11 Mar 2026 20:06:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.6211
- Title: "I followed what felt right, not what I was told": Autonomy, Coaching, and Recognizing Bias Through AI-Mediated Dialogue
- Title(参考訳): 「私は正しいと感じたもの、言われたものではない」:AIを用いた対話を通しての自律性、コーチング、バイアス認識
- Authors: Atieh Taheri, Hamza El Alaoui, Patrick Carrington, Jeffrey P. Bigham,
- Abstract要約: 本稿では,AIによる対話が能力認識にどのように影響するかを実験する。
160人の参加者が事前テスト、介入、そして4つの条件にわたるポストテストを終えた。
定量的な結果から, 対話に基づく条件は, 読解よりも強い認識が得られたが, 軌跡は分岐し, 偏見は中性から偏見の差を増すが, 全体的な否定性は増大した。
我々は、AIによる介入プラットフォームである検証されたウィグネットコーパスに貢献し、バイアス関連ナッジを統合する際に直面するトレードオフを浮き彫りにする設計上の意味について述べる。
- 参考スコア(独自算出の注目度): 16.27769557566952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ableist microaggressions remain pervasive in everyday interactions, yet interventions to help people recognize them are limited. We present an experiment testing how AI-mediated dialogue influences recognition of ableism. 160 participants completed a pre-test, intervention, and a post-test across four conditions: AI nudges toward bias (Bias-Directed), inclusion (Neutral-Directed), unguided dialogue (Self-Directed), and a text-only non-dialogue (Reading). Participants rated scenarios on standardness of social experience and emotional impact; those in dialogue-based conditions also provided qualitative reflections. Quantitative results showed dialogue-based conditions produced stronger recognition than Reading, though trajectories diverged: biased nudges improved differentiation of bias from neutrality but increased overall negativity. Inclusive or no nudges remained more balanced, while Reading participants showed weaker gains and even declines. Qualitative findings revealed biased nudges were often rejected, while inclusive nudges were adopted as scaffolding. We contribute a validated vignette corpus, an AI-mediated intervention platform, and design implications highlighting trade-offs conversational systems face when integrating bias-related nudges.
- Abstract(参考訳): Ableist microaggressions は日常的な相互作用において広く普及しているが、人々の認識を助けるための介入は限られている。
本稿では,AIによる対話が能力認識にどのように影響するかを実験する。
160人の参加者が事前テスト、介入、テスト後の4つの条件 – AI nudges towards bias (Bias-Directed), inclusion (Neutral-Directed), unguided dialogue (Self-Directed), and a text-only non-dialogue (Reading) – を完了した。
参加者は、社会的経験の標準化と情緒的影響に関するシナリオを評価した。
定量的な結果から, 対話に基づく条件は, 読解よりも強い認識が得られたが, 軌跡は分岐し, 偏見は中性から偏見の差を増すが, 全体的な否定性は増大した。
包括的あるいは一切のナッジはバランスが保たれ、レディングの参加者は利得が弱く、さらに下降も見られた。
定性的な所見から, 偏りのある沼地はしばしば拒絶され, 包括的な沼地が足場として採用された。
我々は、AIによる介入プラットフォームである検証済みのウィグネットコーパスに貢献し、バイアス関連ナッジを統合する際に直面するトレードオフを浮き彫りにする設計上の意味について述べる。
関連論文リスト
- Reflecting Twice before Speaking with Empathy: Self-Reflective Alternating Inference for Empathy-Aware End-to-End Spoken Dialogue [53.95386201009769]
音声対話における共感的品質を評価するための記述型自然言語ベース評価モデルであるEmpathyEvalを紹介する。
本稿では,共感的自己反射的交替推論機構を通じて共感的対話を強化する,エンドツーエンドの音声言語モデルであるReEmpathyを提案する。
論文 参考訳(メタデータ) (2026-01-26T09:04:50Z) - The Ideological Turing Test for Moderation of Outgroup Affective Animosity [3.9727752701702728]
Ideological Turing Test(Ideological Turing Test)は、参加者が反対の視点を採用し、守らなければならないゲーミフィケーションフレームワークである。
介入直後および術後2~6週の情緒的アニモシティとイデオロギー的位置の変化を測定した。
イデオロギー的な立場では、反対の視点を採用することで、モダリティ全体にわたる顕著な即時移動が導かれた。
論文 参考訳(メタデータ) (2025-12-13T05:19:45Z) - Ensembling Large Language Models to Characterize Affective Dynamics in Student-AI Tutor Dialogues [18.497635186707008]
本研究は、教師対話における大規模感情センシングのための最初のアンサンブル・LLMフレームワークを紹介する。
我々は、PyTutor(AI教師)と、米国の3つの機関における261人の学部生の間で交わされた16,986の会話型ターンの2つのセミメータについて分析した。
論文 参考訳(メタデータ) (2025-10-13T04:43:56Z) - Aligning Spoken Dialogue Models from User Interactions [55.192134724622235]
本稿では,ユーザの対話からリアルタイム会話における音声対話モデルを改善するための新しい嗜好アライメントフレームワークを提案する。
AIフィードバックを付加した生のマルチターン音声会話から15万以上の好みペアのデータセットを作成する。
本研究は, 自然なリアルタイム音声対話システムにおいて重要な, 様々な力学におけるバランスの整合性の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-26T16:45:20Z) - Context Does Matter: Implications for Crowdsourced Evaluation Labels in Task-Oriented Dialogue Systems [57.16442740983528]
クラウドソースラベルは、タスク指向の対話システムを評価する上で重要な役割を果たす。
従来の研究では、アノテーションプロセスで対話コンテキストの一部だけを使用することが提案されている。
本研究では,対話文脈がアノテーション品質に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-04-15T17:56:39Z) - The More Similar, the Better? Associations between Latent Semantic Similarity and Emotional Experiences Differ across Conversation Contexts [39.58317527488534]
ラテント意味類似度(Lant semantic similarity、LSS)は、会話における情報交換の類似度を測る尺度である。
この研究は、LSSの感情的関連を理解する上での文脈の重要性を強調している。
論文 参考訳(メタデータ) (2023-09-22T06:37:45Z) - What Went Wrong? Explaining Overall Dialogue Quality through
Utterance-Level Impacts [15.018259942339448]
本稿では,ユーザ・システム間相互作用と対話品質の関係を学習する会話ログの自動解析手法を提案する。
提案手法は,発話レベルのアノテーションを使わずに,ユーザ評価全体からインタラクションの影響を学習する。
実験により,我々のモデルからの自動解析が専門家の判断と一致していることが示され,このような発話レベルの品質予測の弱い教師付き学習が達成可能であることを示す最初の方法となった。
論文 参考訳(メタデータ) (2021-10-31T19:12:29Z) - Adaptive Bridge between Training and Inference for Dialogue [36.64781557775641]
そこで本研究では,新たな適応型スイッチング機構を提案する。
提案手法は,メートル法に基づく評価と人的評価の観点から,大幅な改善を実現している。
論文 参考訳(メタデータ) (2021-10-22T02:43:27Z) - DynaEval: Unifying Turn and Dialogue Level Evaluation [60.66883575106898]
統合された自動評価フレームワークDynaEvalを提案する。
ターンレベルの評価を行うことができるが、対話全体の品質を公平に考慮することもできる。
実験の結果,DynaEvalは最先端の対話コヒーレンスモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-06-02T12:23:18Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。