論文の概要: A Multi-Perspective Machine Learning Approach to Evaluate Police-Driver
Interaction in Los Angeles
- arxiv url: http://arxiv.org/abs/2402.01703v3
- Date: Fri, 9 Feb 2024 05:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:29:17.589931
- Title: A Multi-Perspective Machine Learning Approach to Evaluate Police-Driver
Interaction in Los Angeles
- Title(参考訳): ロサンゼルスにおける警察とドライバーのインタラクション評価のためのマルチパースペクティブ機械学習手法
- Authors: Benjamin A.T. Grahama, Lauren Brown, Georgios Chochlakis, Morteza
Dehghani, Raquel Delerme, Brittany Friedman, Ellie Graeden, Preni Golazizian,
Rajat Hebbar, Parsa Hejabi, Aditya Kommineni, Mayag\"uez Salinas, Michael
Sierra-Ar\'evalo, Jackson Trager, Nicholas Weller, and Shrikanth Narayanan
- Abstract要約: 州内で最も目に見えて接触した警察官は、交通停止中に年間2000万回以上、市民と交流している。
ボディウーンカメラ(BWC)は、警察の説明責任を高め、警察と公共の相互作用を改善する手段として用いられる。
本稿では、このBWC映像から音声、ビデオ、および転写情報を分析するために、新しいマルチパースペクティブ・マルチモーダル機械学習(ML)ツールを開発するためのアプローチを提案する。
- 参考スコア(独自算出の注目度): 18.379058918856717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactions between the government officials and civilians affect public
wellbeing and the state legitimacy that is necessary for the functioning of
democratic society. Police officers, the most visible and contacted agents of
the state, interact with the public more than 20 million times a year during
traffic stops. Today, these interactions are regularly recorded by body-worn
cameras (BWCs), which are lauded as a means to enhance police accountability
and improve police-public interactions. However, the timely analysis of these
recordings is hampered by a lack of reliable automated tools that can enable
the analysis of these complex and contested police-public interactions. This
article proposes an approach to developing new multi-perspective, multimodal
machine learning (ML) tools to analyze the audio, video, and transcript
information from this BWC footage. Our approach begins by identifying the
aspects of communication most salient to different stakeholders, including both
community members and police officers. We move away from modeling approaches
built around the existence of a single ground truth and instead utilize new
advances in soft labeling to incorporate variation in how different observers
perceive the same interactions. We argue that this inclusive approach to the
conceptualization and design of new ML tools is broadly applicable to the study
of communication and development of analytic tools across domains of human
interaction, including education, medicine, and the workplace.
- Abstract(参考訳): 政府職員と市民の間の相互作用は、民主社会の機能に必要となる公共の福祉と国家の正当性に影響を及ぼす。
州内で最も目に見えて接触した警察官は、交通停止中に年間2000万回以上、公衆と交流している。
今日では、これらの相互作用はボディウーンカメラ(BWC)によって定期的に記録されており、警察の説明責任を高め、警察と公共の相互作用を改善する手段として語られている。
しかし、これらの録音のタイムリーな分析は、これらの複雑で争われた警察と公共の相互作用の分析を可能にする信頼できる自動ツールの欠如によって妨げられている。
本稿では,このBWC映像から音声,ビデオ,および転写情報を解析するためのマルチパースペクティブ・マルチモーダル機械学習(ML)ツールの開発手法を提案する。
私たちのアプローチは、コミュニティメンバと警察官の両方を含む、さまざまな利害関係者に対して最も適切なコミュニケーションの側面を特定することから始まります。
我々は、単一の真実の存在にまつわるモデリングアプローチから脱却し、代わりにソフトラベリングの新しい進歩を活用して、異なる観測者が同じ相互作用をどのように知覚するかのバリエーションを組み込む。
我々は、新しいMLツールの概念化と設計に対するこの包括的アプローチが、教育、医療、職場など、ヒューマンインタラクションの領域にわたる分析ツールのコミュニケーションと開発研究に広く適用されていると論じる。
関連論文リスト
- Coherence-Driven Multimodal Safety Dialogue with Active Learning for Embodied Agents [23.960719833886984]
M-CoDAL(M-CoDAL)は、安全クリティカルな状況下でのコミュニケーションをよりよく理解するために、実施エージェント向けに設計されたマルチモーダル対話システムである。
提案手法は,2K Reddit画像から抽出した1Kの安全違反を含む,新たに作成されたマルチモーダルデータセットを用いて評価する。
このデータセットで得られた結果は、我々のアプローチが会話の安全性だけでなく、安全状況、ユーザーの感情、および会話の安全性の解決を改善することを実証している。
論文 参考訳(メタデータ) (2024-10-18T03:26:06Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Datastore Design for Analysis of Police Broadcast Audio at Scale [0.0]
シカゴ警察署(CPD)の分析における音声感情認識(SER)の実現に向けた予備研究について述べる。
合成音声ファイルのマルチモーダル解析を可能にするデータストアのパイプライン作成を実演する。
論文 参考訳(メタデータ) (2023-10-25T19:52:19Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - The Frost Hollow Experiments: Pavlovian Signalling as a Path to
Coordination and Communication Between Agents [7.980685978549764]
本稿では,パブロフ信号の多面的研究に貢献する。
固定的な信号処理パラダイムと完全適応型通信学習の自然な橋渡しとしてパブロヴィアン信号処理を確立した。
本研究は, 強化学習エージェント間の連続的なコミュニケーション学習に向けた実践的, 建設的経路を示唆するものである。
論文 参考訳(メタデータ) (2022-03-17T17:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。