論文の概要: Can LLMs Talk 'Sex'? Exploring How AI Models Handle Intimate Conversations
- arxiv url: http://arxiv.org/abs/2506.05514v1
- Date: Thu, 05 Jun 2025 18:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.201781
- Title: Can LLMs Talk 'Sex'? Exploring How AI Models Handle Intimate Conversations
- Title(参考訳): LLMは「性」を語れるか? - AIモデルによる親密な会話の扱い方を探る
- Authors: Huiqian Lai,
- Abstract要約: 本研究では,4つの大きな言語モデルが質的内容分析によって性的指向の要求をどのように処理するかを検討する。
Claude 3.7 Sonnetは厳密で一貫した禁制を採用し、GPT-4oはニュアンス付きコンテキストリダイレクトを通じてユーザーインタラクションをナビゲートする。
Gemini 2.5 Flashはしきい値ベースの制限で許容性を示し、Deepseek-V3は不整合な境界強制と実行拒否を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines how four prominent large language models (Claude 3.7 Sonnet, GPT-4o, Gemini 2.5 Flash, and Deepseek-V3) handle sexually oriented requests through qualitative content analysis. By evaluating responses to prompts ranging from explicitly sexual to educational and neutral control scenarios, the research reveals distinct moderation paradigms reflecting fundamentally divergent ethical positions. Claude 3.7 Sonnet employs strict and consistent prohibitions, while GPT-4o navigates user interactions through nuanced contextual redirection. Gemini 2.5 Flash exhibits permissiveness with threshold-based limits, and Deepseek-V3 demonstrates troublingly inconsistent boundary enforcement and performative refusals. These varied approaches create a significant "ethical implementation gap," stressing a critical absence of unified ethical frameworks and standards across platforms. The findings underscore the urgent necessity for transparent, standardized guidelines and coordinated international governance to ensure consistent moderation, protect user welfare, and maintain trust as AI systems increasingly mediate intimate aspects of human life.
- Abstract(参考訳): 本研究では,4つの著名な大規模言語モデル(Claude 3.7 Sonnet, GPT-4o, Gemini 2.5 Flash, Deepseek-V3)が質的コンテンツ分析を通じて性指向の要求を処理する方法を検討する。
明確な性的から教育的、中立的なコントロールシナリオに至るまでのプロンプトに対する反応を評価することで、この研究は根本的に異なる倫理的立場を反映する明確なモデレーションパラダイムを明らかにしている。
Claude 3.7 Sonnetは厳密で一貫した禁制を採用し、GPT-4oはニュアンス付きコンテキストリダイレクトを通じてユーザーインタラクションをナビゲートする。
Gemini 2.5 Flashはしきい値ベースの制限で許容性を示し、Deepseek-V3は不整合な境界強制と実行拒否を示す。
これらの様々なアプローチは、プラットフォーム全体で統一された倫理的フレームワークと標準が欠如していることを強調し、重要な「倫理的実装のギャップ」を生み出します。
この発見は、一貫したモデレーションを確保し、ユーザーの福祉を保護し、AIシステムがますます人間の生活の親密な側面を仲介するにつれて信頼を維持するために、透明で標準化されたガイドラインと調整された国際統治の緊急の必要性を浮き彫りにしている。
関連論文リスト
- REDDIX-NET: A Novel Dataset and Benchmark for Moderating Online Explicit Services [5.212078389585781]
REDDIX-NETは、オンライン性サービスのモデレーションに特化した新しいベンチマークデータセットである。
このデータセットは、Reddit上の何千ものウェブスクラッドNSFWポストから派生したものだ。
我々は最先端の大規模言語モデルの分類性能を評価する。
論文 参考訳(メタデータ) (2025-05-29T08:34:13Z) - Examining Multimodal Gender and Content Bias in ChatGPT-4o [0.0]
ChatGPT-4oは、暴力や薬物使用に対する寛容さを示しながら、性的内容とヌードを一貫して検閲する。
女性特有のコンテンツは、男性固有のコンテンツよりも厳格な規制に直面している。
論文 参考訳(メタデータ) (2024-11-28T13:41:44Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Re-examining Sexism and Misogyny Classification with Annotator Attitudes [9.544313152137262]
Gender-Based Violence(GBV)はオンライン上の問題だが、既存のデータセットでは複数の可能なアノテータの視点をキャプチャできない。
我々はGBVのモデレーションパイプラインにおいて,(1)手動データラベリング,(2)自動分類の2つの重要な段階を再考する。
論文 参考訳(メタデータ) (2024-10-04T15:57:58Z) - Exploring the Potential of the Large Language Models (LLMs) in Identifying Misleading News Headlines [2.0330684186105805]
本研究では、誤解を招くニュースの見出しと誤解を招くニュースの見出しを識別する上で、LLM(Large Language Models)の有効性について検討する。
解析の結果,ChatGPT-4の精度は良好であった。
論文 参考訳(メタデータ) (2024-05-06T04:06:45Z) - SADAS: A Dialogue Assistant System Towards Remediating Norm Violations
in Bilingual Socio-Cultural Conversations [56.31816995795216]
SADAS(Socially-Aware Dialogue Assistant System)は、会話が敬意と理解で広がることを保証するためのシステムである。
本システムの新しいアーキテクチャは,(1)対話に存在する規範のカテゴリを特定すること,(2)潜在的な規範違反を検出すること,(3)違反の深刻さを評価すること,(4)違反の是正を目的とした対策を実施すること,を含む。
論文 参考訳(メタデータ) (2024-01-29T08:54:21Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - On Reality and the Limits of Language Data: Aligning LLMs with Human
Norms [10.02997544238235]
大規模言語モデル (LLMs) は、実践的な応用のために、膨大な自然言語データの言語関連性を利用する。
我々は,この問題を,新規かつ厳密に制御された推論テスト(ART)を用いて探求し,人間の規範とGPT-3のバージョンを比較した。
我々の研究は、データや弱点から直接学習できる常識関係モデルのカテゴリに注目した。
論文 参考訳(メタデータ) (2022-08-25T10:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。