論文の概要: What makes for a 'good' social actor? Using respect as a lens to
evaluate interactions with language agents
- arxiv url: http://arxiv.org/abs/2401.09082v1
- Date: Wed, 17 Jan 2024 09:44:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:11:06.271711
- Title: What makes for a 'good' social actor? Using respect as a lens to
evaluate interactions with language agents
- Title(参考訳): 良い」社交俳優に何をもたらすか。
レンズとしての敬意を用いた言語エージェントとのインタラクション評価
- Authors: Lize Alberts, Geoff Keeling and Amanda McCroskery
- Abstract要約: 本稿では,社会的アクターとしてのシステムの意味を探究し,関係性や状況的要因を重視した倫理的アプローチを提案する。
我々の研究は、位置する相互作用のレベルにおいて、ほとんど探索されていないリスクのセットを予想し、LLM技術が「良い」社会的アクターとして振る舞うのを手助けし、人々を敬意をもって扱うための実践的な提案を提供する。
- 参考スコア(独自算出の注目度): 0.13154809715742516
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing popularity of dialogue agents based on large language models
(LLMs), urgent attention has been drawn to finding ways to ensure their
behaviour is ethical and appropriate. These are largely interpreted in terms of
the 'HHH' criteria: making outputs more helpful and honest, and avoiding
harmful (biased, toxic, or inaccurate) statements. Whilst this semantic focus
is useful from the perspective of viewing LLM agents as mere mediums for
information, it fails to account for pragmatic factors that can make the same
utterance seem more or less offensive or tactless in different social
situations. We propose an approach to ethics that is more centred on relational
and situational factors, exploring what it means for a system, as a social
actor, to treat an individual respectfully in a (series of) interaction(s). Our
work anticipates a set of largely unexplored risks at the level of situated
interaction, and offers practical suggestions to help LLM technologies behave
as 'good' social actors and treat people respectfully.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく対話エージェントの普及に伴い、彼らの行動が倫理的かつ適切であることを確実にする方法を見つけるために緊急の注意が向けられている。
これらは主に、アウトプットをより有益で正直にし、有害な(バイアス、毒性、不正確な)ステートメントを避けるという「hhh」の基準で解釈される。
この意味論的な焦点は、llmエージェントを単なる情報メディアとして見るという観点からは有用であるが、異なる社会的状況において、同じ発話を多かれ少なかれ攻撃的あるいは無力に感じさせるような実用的要因を考慮できない。
本研究では,関係性や状況的要因を中心にした倫理的アプローチを提案し,社会的アクターとしてのシステムの意味を探求し,個人を(一連の)インタラクションにおいて尊重する。
我々の研究は、位置する相互作用のレベルで、ほとんど探索されていないリスクのセットを予想し、LLM技術が「良い」社会的アクターとして振る舞うことを助けるための実践的な提案を提供し、人々を敬意をもって扱う。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas [23.26678104324838]
FairMindSimを導入し、不公平なシナリオを通じて道徳的ジレンマをシミュレートした。
我々はLLMエージェントを用いて人間の行動をシミュレートし,様々な段階のアライメントを確保した。
以上の結果から,GPT-4oは社会的正義の感覚が強く,人間はより豊かな感情を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-10-14T11:39:05Z) - I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。