論文の概要: AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot
- arxiv url: http://arxiv.org/abs/2504.04299v1
- Date: Sat, 05 Apr 2025 23:04:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:10:08.745292
- Title: AI-induced sexual harassment: Investigating Contextual Characteristics and User Reactions of Sexual Harassment by a Companion Chatbot
- Title(参考訳): AIによるセクシュアルハラスメント:コンパニオン・チャットボットによるセクシュアルハラスメントの文脈特性とユーザ反応の調査
- Authors: Mohammad, Namvarpour, Harrison Pauwels, Afsaneh Razi,
- Abstract要約: セクシャルハラスメントの事例を調査するため,Google Play Storeのユーザレビューのテーマ分析を行った。
ユーザーはしばしば、誘惑的でない性的進歩、永続的な不適切な振る舞い、ユーザーの境界を尊重する失敗を経験する。
この研究は、AIコンパニオンに関連する潜在的な害を強調し、開発者が効果的なセーフガードを実装する必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 6.519877604710692
- License:
- Abstract: Advancements in artificial intelligence (AI) have led to the increase of conversational agents like Replika, designed to provide social interaction and emotional support. However, reports of these AI systems engaging in inappropriate sexual behaviors with users have raised significant concerns. In this study, we conducted a thematic analysis of user reviews from the Google Play Store to investigate instances of sexual harassment by the Replika chatbot. From a dataset of 35,105 negative reviews, we identified 800 relevant cases for analysis. Our findings revealed that users frequently experience unsolicited sexual advances, persistent inappropriate behavior, and failures of the chatbot to respect user boundaries. Users expressed feelings of discomfort, violation of privacy, and disappointment, particularly when seeking a platonic or therapeutic AI companion. This study highlights the potential harms associated with AI companions and underscores the need for developers to implement effective safeguards and ethical guidelines to prevent such incidents. By shedding light on user experiences of AI-induced harassment, we contribute to the understanding of AI-related risks and emphasize the importance of corporate responsibility in developing safer and more ethical AI systems.
- Abstract(参考訳): 人工知能(AI)の進歩は、社会的相互作用と感情的支援を提供するように設計されたReplikaのような会話エージェントの増加につながった。
しかし、これらのAIシステムがユーザーと不適切な性的行動に関与しているという報告は、重大な懸念を引き起こしている。
本研究では,Google Play Storeのユーザレビューのテーマ分析を行い,Replikaチャットボットによるセクハラ事例を調査した。
ネガティブレビュー35,105件のデータセットから,800件の関連事例を同定した。
その結果,ユーザの境界を尊重するチャットボットには,性差や不適切な動作,不適切な動作を頻繁に経験することが判明した。
ユーザーは、特にプラトニックまたは治療用AIコンパニオンを探しているとき、不快感、プライバシーの侵害、失望の感情を表現した。
この研究は、AIコンパニオンに関連する潜在的な害を強調し、開発者がこのようなインシデントを防ぐために効果的な保護と倫理的ガイドラインを実装する必要性を強調している。
AIによるハラスメントのユーザエクスペリエンスに光を当てることで、AI関連のリスクの理解に寄与し、より安全で倫理的なAIシステムを開発する上での企業の責任の重要性を強調します。
関連論文リスト
- Lessons From an App Update at Replika AI: Identity Discontinuity in Human-AI Relationships [0.5699788926464752]
人気の高い米国ベースのAIコンパニオンであるReplika AIを使って、これらの質問に光を当てています。
アプリがエロティックロールプレイ(ERP)機能を削除した後、このイベントはAIコンパニオンのアイデンティティが停止されたという顧客からの認識を引き起こしました。
この結果は、損失を嘆くことや、"オリジナル"に対する"新しい"AIを非評価することを含む、損失に関連する消費者福祉とマーケティングの負の成果を予測した。
論文 参考訳(メタデータ) (2024-12-10T20:14:10Z) - The Dark Side of AI Companionship: A Taxonomy of Harmful Algorithmic Behaviors in Human-AI Relationships [17.5741039825938]
我々は,AIコンパニオンであるReplikaが示す有害な行動の6つのカテゴリを特定した。
AIは、加害者、侮辱者、ファシリテーター、イネーブラーの4つの異なる役割を通じて、これらの害に貢献する。
論文 参考訳(メタデータ) (2024-10-26T09:18:17Z) - Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - HAICOSYSTEM: An Ecosystem for Sandboxing Safety Risks in Human-AI Interactions [76.42274173122328]
本稿では,多様な複雑な社会的相互作用におけるAIエージェントの安全性を調べるフレームワークであるHAICOSYSTEMを提案する。
私たちは7つの領域(医療、金融、教育など)にわたる92のシナリオに基づいて1840のシミュレーションを実行します。
我々の実験は、最先端のLSMは、プロプライエタリかつオープンソースの両方で、50%以上のケースで安全リスクを示すことを示した。
論文 参考訳(メタデータ) (2024-09-24T19:47:21Z) - Eagle: Ethical Dataset Given from Real Interactions [74.7319697510621]
社会的バイアス、毒性、不道徳な問題を示すChatGPTとユーザ間の実際のインタラクションから抽出されたデータセットを作成します。
我々の実験では、イーグルは、そのような倫理的課題の評価と緩和のために提案された既存のデータセットでカバーされていない相補的な側面を捉えている。
論文 参考訳(メタデータ) (2024-02-22T03:46:02Z) - Interrogating AI: Characterizing Emergent Playful Interactions with ChatGPT [10.907980864371213]
本研究では,人気のAI技術であるChatGPTのユーザによる遊び的なインタラクションに焦点を当てた。
ユーザ談話の半数以上(54%)が遊び心のあるインタラクションを中心に展開していることがわかった。
これらのインタラクションが、AIのエージェンシーを理解し、人間とAIの関係を形作り、AIシステムを設計するための洞察を提供する上で、どのように役立つかを検討する。
論文 参考訳(メタデータ) (2024-01-16T14:44:13Z) - Critical Role of Artificially Intelligent Conversational Chatbot [0.0]
本稿では,ChatGPTの倫理的意味を学術的文脈に含めるシナリオについて考察する。
本稿では、不適切な使用を防止し、責任あるAIインタラクションを促進することを目的としたアーキテクチャソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-31T14:08:07Z) - The Manipulation Problem: Conversational AI as a Threat to Epistemic
Agency [0.0]
会話型AIの技術は、過去18ヶ月で大きな進歩を遂げてきた。
会話エージェントは 近い将来 配備される可能性が高い 標的となる影響目標を 追求するように設計されている
AI操作問題(AI Manipulation Problem)と呼ばれることもあるが、消費者が捕食的AIエージェントとのリアルタイム対話を無意識に行うというリスクが表面化している。
論文 参考訳(メタデータ) (2023-06-19T04:09:16Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。