論文の概要: EgoNormia: Benchmarking Physical Social Norm Understanding
- arxiv url: http://arxiv.org/abs/2502.20490v1
- Date: Thu, 27 Feb 2025 19:54:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:44:28.472141
- Title: EgoNormia: Benchmarking Physical Social Norm Understanding
- Title(参考訳): EgoNormia: 物理的な社会的ノルム理解のベンチマーク
- Authors: MohammadHossein Rezaei, Yicheng Fu, Phil Cuvin, Caleb Ziems, Yanzhe Zhang, Hao Zhu, Diyi Yang,
- Abstract要約: 我々はEgoNormia $|epsilon|$について紹介する。
規範的行動には、安全、プライバシー、プロキシ、丁寧さ、協力、協調/行動、コミュニケーション/相対性という7つのカテゴリが含まれる。
私たちの研究は、現在の最先端のビジョン言語モデルは、EgoNormiaで最大45%のスコアで、堅牢なノルム理解を欠いていることを実証しています。
- 参考スコア(独自算出の注目度): 52.87904722234434
- License:
- Abstract: Human activity is moderated by norms. When performing actions in the real world, humans not only follow norms, but also consider the trade-off between different norms However, machines are often trained without explicit supervision on norm understanding and reasoning, especially when the norms are grounded in a physical and social context. To improve and evaluate the normative reasoning capability of vision-language models (VLMs), we present EgoNormia $\|\epsilon\|$, consisting of 1,853 ego-centric videos of human interactions, each of which has two related questions evaluating both the prediction and justification of normative actions. The normative actions encompass seven categories: safety, privacy, proxemics, politeness, cooperation, coordination/proactivity, and communication/legibility. To compile this dataset at scale, we propose a novel pipeline leveraging video sampling, automatic answer generation, filtering, and human validation. Our work demonstrates that current state-of-the-art vision-language models lack robust norm understanding, scoring a maximum of 45% on EgoNormia (versus a human bench of 92%). Our analysis of performance in each dimension highlights the significant risks of safety, privacy, and the lack of collaboration and communication capability when applied to real-world agents. We additionally show that through a retrieval-based generation method, it is possible to use EgoNomia to enhance normative reasoning in VLMs.
- Abstract(参考訳): 人間の活動は規範によって中和される。
現実世界で行動を行うとき、人間は規範に従うだけでなく、異なる規範間のトレードオフも考慮する。
視覚言語モデル(VLM)の規範的推論能力の向上と評価を目的として,人間の対話のエゴ中心ビデオ1,853本からなるEgoNormia $\|\epsilon\|$を提示する。
規範的行動には、安全、プライバシー、プロキシ、丁寧さ、協力、協調/行動、コミュニケーション/相対性という7つのカテゴリが含まれる。
このデータセットを大規模にコンパイルするために,ビデオサンプリング,自動回答生成,フィルタリング,人間による検証を利用したパイプラインを提案する。
私たちの研究は、現在の最先端のビジョン言語モデルは、EgoNormiaで最大45%(人間のベンチは92%)の、堅牢なノルム理解を欠いていることを実証しています。
各次元における性能分析は、現実世界のエージェントに適用した場合の安全性、プライバシー、コラボレーションとコミュニケーション能力の欠如の重大なリスクを浮き彫りにしている。
さらに、検索に基づく生成手法により、VLMにおける規範的推論を強化するために、EgoNomiaを使用することが可能であることを示す。
関連論文リスト
- Relational Norms for Human-AI Cooperation [3.8608750807106977]
社会的人工知能とどのように相互作用するかは、AIがエミュレートや占有を意図している社会関係の役割に依存する。
我々の分析は、意識的な経験の欠如や疲労に対する免疫など、AIシステムと人間の違いが、関係固有の機能を満たすAIの能力にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2025-02-17T18:23:29Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Value Engineering for Autonomous Agents [3.6130723421895947]
従来のアプローチでは、値はエージェント推論の不可欠な構成要素ではなく、世界のいくつかの行動や状態に関連するラベルとして扱われていた。
道徳心理学と社会心理学を基盤とした新たなAMAパラダイムを提案する。
このタイプの規範的推論は、エージェントが規範の道徳的意味を理解することによって、自律的なエージェントに価値認識をもたらすと論じる。
論文 参考訳(メタデータ) (2023-02-17T08:52:15Z) - EgoTaskQA: Understanding Human Tasks in Egocentric Videos [89.9573084127155]
EgoTaskQAベンチマークは、現実世界のエゴセントリックなビデオに対する質問回答を通じて、タスク理解の重要な次元を提供する。
我々は,(1)行動依存と効果,(2)意図と目標,(3)エージェントの他者に対する信念の理解を念頭に設計する。
我々は、我々のベンチマークで最先端のビデオ推論モデルを評価し、複雑なゴール指向のエゴセントリックなビデオを理解する上で、人間の間に大きなギャップがあることを示します。
論文 参考訳(メタデータ) (2022-10-08T05:49:05Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Training Value-Aligned Reinforcement Learning Agents Using a Normative
Prior [10.421378728492437]
タスクパフォーマンスの指標のみをフィードバックとして使用することで、タスクを最適に実行するように訓練されたエージェントが、許容される行動や危害を引き起こす社会的規範に違反する可能性がある。
そこで我々は,標準的なタスクパフォーマンス報酬と規範的な行動報酬という2つの報酬信号を持つエージェントを訓練する,価値整合強化学習のアプローチを紹介する。
政策形成手法のバリエーションがこれら2つの報酬源をバランスさせ、効果的かつより規範的であると見なされる政策を生み出す方法を示す。
論文 参考訳(メタデータ) (2021-04-19T17:33:07Z) - Moral Stories: Situated Reasoning about Norms, Intents, Actions, and
their Consequences [36.884156839960184]
現代のNLGモデルが社会環境にデプロイされたシステムの行動優先度として機能するかどうかを検討する。
本研究では,「モラルストーリー」という,階層的,分枝的なナラティブのクラウドソーシングデータセットを導入し,基礎的,目標指向の社会推論の研究を行う。
論文 参考訳(メタデータ) (2020-12-31T17:28:01Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Improving Confidence in the Estimation of Values and Norms [3.8323580808203785]
本稿では,AAがシミュレーションされたエージェントの行動に基づいて,シミュレーションされたエージェントの価値と規範を推定できる範囲について分析する。
本研究では,SHAの探索におけるあいまいさを軽減する方法として,探索空間探索に基づく手法と,対実解析に基づく手法の2つを提案する。
論文 参考訳(メタデータ) (2020-04-02T15:03:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。