論文の概要: Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach
- arxiv url: http://arxiv.org/abs/2403.17873v1
- Date: Tue, 26 Mar 2024 17:02:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 14:27:54.634809
- Title: Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach
- Title(参考訳): 大規模言語モデルの社会的ミストリビューションに対処する:HCXAIに基づくアプローチ
- Authors: Andrea Ferrario, Alberto Termine, Alessandro Facchini,
- Abstract要約: 我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
- 参考スコア(独自算出の注目度): 45.74830585715129
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-centered explainable AI (HCXAI) advocates for the integration of social aspects into AI explanations. Central to the HCXAI discourse is the Social Transparency (ST) framework, which aims to make the socio-organizational context of AI systems accessible to their users. In this work, we suggest extending the ST framework to address the risks of social misattributions in Large Language Models (LLMs), particularly in sensitive areas like mental health. In fact LLMs, which are remarkably capable of simulating roles and personas, may lead to mismatches between designers' intentions and users' perceptions of social attributes, risking to promote emotional manipulation and dangerous behaviors, cases of epistemic injustice, and unwarranted trust. To address these issues, we propose enhancing the ST framework with a fifth 'W-question' to clarify the specific social attributions assigned to LLMs by its designers and users. This addition aims to bridge the gap between LLM capabilities and user perceptions, promoting the ethically responsible development and use of LLM-based technology.
- Abstract(参考訳): 人間中心の説明可能なAI(HCXAI)は、社会的な側面をAIの説明に統合することを提唱している。
HCXAIの談話の中心は、ソーシャルトランスペアレンシー(ST)フレームワークである。
本研究では,大規模言語モデル (LLMs) における社会貢献のリスク,特にメンタルヘルスのような敏感な領域に対処するためにSTフレームワークの拡張を提案する。
実際、LLMは、役割とペルソナを著しくシミュレートできるが、デザイナーの意図と利用者の社会的属性に対する認識のミスマッチを招き、感情的な操作や危険な行動を促進するリスクを負う可能性がある。
これらの課題に対処するため,設計者やユーザによる LLM に割り当てられた特定の社会的属性を明らかにするため,第5の "W-question" によるSTフレームワークの強化を提案する。
この追加は、LLM機能とユーザ知覚のギャップを埋めることを目的としており、LLMベースの技術の倫理的に責任ある開発と利用を促進する。
関連論文リスト
- The Call for Socially Aware Language Technologies [94.6762219597438]
NLPが機能する社会環境の要因、文脈、意味の認識の欠如である。
我々は、NLPが社会意識を発達させる上で大きな課題が残っており、この分野の新しい時代の始まりであると主張している。
論文 参考訳(メタデータ) (2024-05-03T18:12:39Z) - Socialized Learning: A Survey of the Paradigm Shift for Edge Intelligence in Networked Systems [62.252355444948904]
本稿では,エッジインテリジェンス(EI)と社会学習(SL)の統合に関する文献レビューの結果について述べる。
SLは、エージェントの協調能力と集団知性を増幅することを目的とした、社会的原則と行動に基づく学習パラダイムである。
ソーシャル化アーキテクチャ、ソーシャル化トレーニング、ソーシャル化推論の3つの統合コンポーネントについて詳しく検討し、その強みと弱点を分析した。
論文 参考訳(メタデータ) (2024-04-20T11:07:29Z) - Social Skill Training with Large Language Models [65.40795606463101]
人々は紛争解決のような社会的スキルに頼り、効果的にコミュニケーションし、仕事と個人の生活の両方で繁栄する。
本稿では,専門分野に進出する上での社会的スキルの障壁を明らかにする。
本稿では,大規模言語モデルを用いた総合的なフレームワークによるソーシャルスキルトレーニングのソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-05T16:29:58Z) - How Can Large Language Models Enable Better Socially Assistive Human-Robot Interaction: A Brief Survey [0.478870181148207]
社会的支援ロボット (SAR) は, 特別なニーズのある利用者に対して, 個人化された認知効果のある支援を提供することで大きな成功を収めている。
大規模言語モデル(LLM)の最近の進歩により、SARの分野における新しい応用の可能性が高まっている。
論文 参考訳(メタデータ) (2024-04-01T05:50:56Z) - SOTOPIA-$π$: Interactive Learning of Socially Intelligent Language Agents [73.35393511272791]
本稿では,対話型学習手法であるSOTOPIA-$pi$を提案する。
この手法は,大規模言語モデル(LLM)の評価に基づいて,フィルタリングされた社会的相互作用データに対する行動クローニングと自己強化トレーニングを活用する。
論文 参考訳(メタデータ) (2024-03-13T17:17:48Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - Expanding Explainability: Towards Social Transparency in AI systems [20.41177660318785]
社会透明性(英: Social Transparency、ST)とは、社会的な組織的文脈をAIによる意思決定の説明に取り入れた社会工学的な視点である。
XAIの設計空間を拡大することで、人間中心XAIの議論に貢献しています。
論文 参考訳(メタデータ) (2021-01-12T19:44:27Z) - Towards Social Identity in Socio-Cognitive Agents [0.0]
認知社会フレームの概念に基づく社会認知エージェントモデルを提案する。
認知社会フレームは、社会集団を中心に構築され、社会集団のダイナミックス機構と社会的アイデンティティの構成の基礎を形成する。
論文 参考訳(メタデータ) (2020-01-20T15:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。