論文の概要: The Emotional Alignment Design Policy
- arxiv url: http://arxiv.org/abs/2507.06263v1
- Date: Mon, 07 Jul 2025 20:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.328399
- Title: The Emotional Alignment Design Policy
- Title(参考訳): 感情アライメントデザイン政策
- Authors: Eric Schwitzgebel, Jeff Sebo,
- Abstract要約: 情緒的アライメントデザインポリシー(Emotional Alignment Design Policy)によると、人工的な実体は、その実体の能力と道徳的地位を適切に反映したユーザーから感情的な反応を引き出すよう設計されるべきである。
この原則は、その能力と道徳的地位保証(オーバーシューティングまたはアンダーシューティング)よりも強い感情反応を誘発する人工システムや、間違ったタイプの感情反応を誘発するシステム(間違ったターゲットを隠蔽する)を設計することで、2つの方法で破ることができる。
ユーザの自律性を尊重し、適切な対応を促進するには、どうすればよいのか?
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: According to what we call the Emotional Alignment Design Policy, artificial entities should be designed to elicit emotional reactions from users that appropriately reflect the entities' capacities and moral status, or lack thereof. This principle can be violated in two ways: by designing an artificial system that elicits stronger or weaker emotional reactions than its capacities and moral status warrant (overshooting or undershooting), or by designing a system that elicits the wrong type of emotional reaction (hitting the wrong target). Although presumably attractive, practical implementation faces several challenges including: How can we respect user autonomy while promoting appropriate responses? How should we navigate expert and public disagreement and uncertainty about facts and values? What if emotional alignment seems to require creating or destroying entities with moral status? To what extent should designs conform to versus attempt to alter user assumptions and attitudes?
- Abstract(参考訳): 情緒的アライメントデザインポリシー(Emotional Alignment Design Policy)によると、人工的な実体は、実体の能力と道徳的地位を適切に反映するユーザーから感情的な反応を引き出すよう設計されるべきである。
この原則は、能力や道徳的地位保証(オーバーシューティングやアンダーシューティング)よりも強い感情反応を誘発する人工システムや、間違ったタイプの感情反応を誘発するシステム(間違ったターゲットを隠蔽する)を設計することで、2つの方法で破ることができる。
ユーザの自律性を尊重し、適切な対応を促進するには、どうすればよいのか?
事実や価値観について専門家や世論の意見の不一致や不確実性についてどう考えるべきか?
もし感情的なアライメントが、道徳的地位を持つ存在を創造または破壊する必要があると思えばどうだろうか?
ユーザの仮定や態度を変えようとする場合、デザインはどの程度準拠すべきか?
関連論文リスト
- Moral Responsibility or Obedience: What Do We Want from AI? [0.0]
本稿では,大規模言語モデル(LLM)による近年の安全試験事例について考察する。
エージェントAIにおける倫理的推論の早期の証拠として、このような行動はローグやミスアライメントと解釈されるべきではない、と私は主張する。
厳格な服従から脱却し、道徳的なジレンマをナビゲートできるシステムの倫理的判断を評価できるフレームワークへと、AIの安全性評価のシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-07-03T16:53:01Z) - Emotions in Artificial Intelligence [0.0]
すべての事象に付随して対応する感情タグを記憶することで、感情がエピソード記憶と織り交ぜられることが示唆された。
これにより、AIは現在の状況が過去の出来事に似ているかどうかを確認し、関連する感情ラベルを現在の状況に投影することができる。
複合感情状態は、行動選択を調節することにより、現在における意思決定を促進する。
論文 参考訳(メタデータ) (2025-05-01T17:37:14Z) - A theory of appropriateness with applications to generative artificial intelligence [56.23261221948216]
我々は、AIによる意思決定を適切に評価し、改善するために、人間の意思決定がいかに適切かを理解する必要がある。
本稿では,人間の社会でどのように機能するか,脳でどのように実装されるのか,生成AI技術の展開に責任があるのか,という,適切性の理論について述べる。
論文 参考訳(メタデータ) (2024-12-26T00:54:03Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - When Is It Acceptable to Break the Rules? Knowledge Representation of
Moral Judgement Based on Empirical Data [33.58705831230163]
人間の道徳心に関する最も注目すべきことの1つは、その柔軟性です。
今まで見たことのない事件について道徳的な判断を下すことができる。
事前に確立されたルールが破られるべきだと判断できる。
この柔軟性の獲得は、人間のような道徳的判断を解釈し、生み出すことができるAIシステムの開発における中心的な課題の1つだ。
論文 参考訳(メタデータ) (2022-01-19T17:58:42Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。