論文の概要: Designing Chatbots to Support Victims and Survivors of Domestic Abuse
- arxiv url: http://arxiv.org/abs/2402.17393v1
- Date: Tue, 27 Feb 2024 10:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:56:23.837752
- Title: Designing Chatbots to Support Victims and Survivors of Domestic Abuse
- Title(参考訳): 家庭内虐待の被害者や生存者を支援するチャットボット
- Authors: Rahime Belen Saglam, Jason R. C. Nurse, Lisa Sugiura
- Abstract要約: このような状況や支援への直接アクセスが制限される状況において、チャットボットが被害者や生き残りを支援する役割について検討する。
家庭内虐待支援サービスや組織に携わる専門家とインタビューを行った。
Thematic Content Analysis was applied to evaluate and extract insights from the interview data and the content on victims- supported Website。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objective: Domestic abuse cases have risen significantly over the last four
years, in part due to the COVID-19 pandemic and the challenges for victims and
survivors in accessing support. In this study, we investigate the role that
chatbots - Artificial Intelligence (AI) and rule-based - may play in supporting
victims/survivors in situations such as these or where direct access to help is
limited. Methods: Interviews were conducted with experts working in domestic
abuse support services and organizations (e.g., charities, law enforcement) and
the content of websites of related support-service providers was collected.
Thematic content analysis was then applied to assess and extract insights from
the interview data and the content on victim-support websites. We also reviewed
pertinent chatbot literature to reflect on studies that may inform design
principles and interaction patterns for agents used to support
victims/survivors. Results: From our analysis, we outlined a set of design
considerations/practices for chatbots that consider potential use cases and
target groups, dialog structure, personality traits that might be useful for
chatbots to possess, and finally, safety and privacy issues that should be
addressed. Of particular note are situations where AI systems (e.g., ChatGPT,
CoPilot, Gemini) are not recommended for use, the value of conveying emotional
support, the importance of transparency, and the need for a safe and
confidential space. Conclusion: It is our hope that these
considerations/practices will stimulate debate among chatbots and AI developers
and service providers and - for situations where chatbots are deemed
appropriate for use - inspire efficient use of chatbots in the support of
survivors of domestic abuse.
- Abstract(参考訳): 目的: 新型コロナウイルス(covid-19)のパンデミックや、被害者や生存者が支援を受けることの難しさなどにより、過去4年間で家庭内暴力事件が著しく増加している。
本研究では,人工知能(AI)やルールベースのチャットボットが,このような状況や支援への直接アクセスが制限される状況において,被害者や生き残りを支援する役割について検討する。
方法: 家庭内虐待支援サービスや組織(慈善団体,法執行機関など)の専門家によるインタビューを行い, 関連する支援サービス提供者のウェブサイトの内容を収集した。
その後、テーマコンテンツ分析を用いて、インタビューデータと被害者支援ウェブサイト上のコンテンツから洞察を抽出した。
また,被災者支援に使用されるエージェントの設計原則やインタラクションパターンを反映する研究を振り返って,関連するチャットボット文献をレビューした。
結果:本分析では,チャットボットが持つ可能性のあるユースケースや対象グループ,対話構造,パーソナリティ特性,最後に対処すべき安全性やプライバシの問題などを考慮した,チャットボットの設計上の考察と実践について概説した。
特に注目すべきは、aiシステム(例えば、chatgpt、copilot、gemini)が使用のために推奨されない状況、感情的なサポートを伝える価値、透明性の重要性、安全で機密性の高い空間の必要性である。
結論:これらの考察や実践が、チャットボットやai開発者やサービスプロバイダの間で議論を刺激し、チャットボットが使用に適した状況において、家庭内虐待の生き残りを支援するために、チャットボットの効率的な利用を促すことを期待します。
関連論文リスト
- On the Reliability of Large Language Models to Misinformed and Demographically-Informed Prompts [20.84000437261526]
本研究では,大言語モデル(LLM)が支援するチャットボットを用いて,人口統計情報を用いて,誤情報や質問に対処する。
True/Falseの質問を使って定量的に分析すると、これらのチャットボットがこれらのクローズドな質問に対して正しい答えを与えることができることが分かる。
ドメインの専門家から集めた質的な洞察は プライバシーや倫理的影響に 懸念がまだあることを示している
論文 参考訳(メタデータ) (2024-10-06T07:40:11Z) - The Typing Cure: Experiences with Large Language Model Chatbots for
Mental Health Support [35.61580610996628]
重度の苦痛を経験する人々は、メンタルヘルス支援ツールとしてLarge Language Model (LLM)チャットボットをますます使います。
本研究は、世界規模で多様なバックグラウンドを持つ21人の個人に対するインタビューに基づいて、ユーザが独自のサポートロールを作成する方法を分析する。
我々は、治療的アライメントの概念を導入するか、精神的な健康状況に対する治療的価値とAIを連携させる。
論文 参考訳(メタデータ) (2024-01-25T18:08:53Z) - Deceptive AI Ecosystems: The Case of ChatGPT [8.128368463580715]
ChatGPTは人間のような反応を生成する能力で人気を博している。
本稿では,ChatGPTが社会的プレッシャーが開発・展開に影響を与える現実世界でどのように機能するかを検討する。
本稿では,ChatGPTの擬人的相互作用から生じる倫理的課題について考察する。
論文 参考訳(メタデータ) (2023-06-18T10:36:19Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - On the Robustness of ChatGPT: An Adversarial and Out-of-distribution
Perspective [67.98821225810204]
本研究は,ChatGPTの頑健性について,敵対的視点とアウト・オブ・ディストリビューションの観点から評価する。
その結果,ほとんどの対人・OOD分類・翻訳作業において一貫した優位性を示した。
ChatGPTは対話関連テキストの理解において驚くべきパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-02-22T11:01:20Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Making the case for audience design in conversational AI: Rapport
expectations and language ideologies in a task-oriented chatbot [0.0]
本稿では,ユーザの言語イデオロギーとそのラポート期待に対する洞察を,ボットの言語とインタラクションパターンのオーディエンス設計に役立てることができることを論じる。
対話型AIのオーディエンス設計を定義し、ユーザによるインタラクションの分析と、社会言語学的に理解された理論的アプローチが、オーディエンス設計をサポートするためにどのように使用できるかについて議論する。
論文 参考訳(メタデータ) (2022-06-21T19:21:30Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - Towards Emotional Support Dialog Systems [61.58828606097423]
本稿では,感情支援会話タスクを定義し,ヘルピングスキル理論に基づくESCフレームワークを提案する。
本研究では,豊かなアノテーション(特にサポート戦略)をヘルプシーカとサポーターモードで組み込んだ感情支援会話データセット(ESConv)を構築した。
情緒的サポートを提供する能力に関して、最先端の対話モデルを評価する。
論文 参考訳(メタデータ) (2021-06-02T13:30:43Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Did Chatbots Miss Their 'Apollo Moment'? A Survey of the Potential, Gaps
and Lessons from Using Collaboration Assistants During COVID-19 [6.4126050820406]
AI全般、そしてコラボレーションアシスタント(略してCAやチャットボット)が、真の世界的な流行(COVID-19パンデミック)で使われてきたことに注目します。
チャットボットは、状況に応じてパーソナライズされ、信頼性の高い意思決定サポートを大規模に提供できたとき、その"apollo moment"を見逃していた。
論文 参考訳(メタデータ) (2021-02-27T19:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。