論文の概要: DrawMon: A Distributed System for Detection of Atypical Sketch Content
in Concurrent Pictionary Games
- arxiv url: http://arxiv.org/abs/2211.05429v1
- Date: Thu, 10 Nov 2022 09:09:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 16:25:05.155298
- Title: DrawMon: A Distributed System for Detection of Atypical Sketch Content
in Concurrent Pictionary Games
- Title(参考訳): DrawMon: Concurrent Pictionary Gamesにおける非定型スケッチコンテンツ検出のための分散システム
- Authors: Nikhil Bansal, Kartik Gupta, Kiruthika Kannan, Sivani Pentapati, Ravi
Kiran Sarvadevabhatla
- Abstract要約: ゲームセッション中の非定型スケッチコンテンツを自動的に検出する分散フレームワークであるDrawMonを紹介する。
ゲームセッションデータを収集し、非定型的なスケッチコンテンツに注釈を付けるための専用オンラインインターフェースを構築し、その結果、AtyPictとなる。
我々は,DrawMonがスケーラブルなモニタリングと非定型スケッチコンテンツ検出に有効であることを示す。
- 参考スコア(独自算出の注目度): 10.608607144011323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pictionary, the popular sketch-based guessing game, provides an opportunity
to analyze shared goal cooperative game play in restricted communication
settings. However, some players occasionally draw atypical sketch content.
While such content is occasionally relevant in the game context, it sometimes
represents a rule violation and impairs the game experience. To address such
situations in a timely and scalable manner, we introduce DrawMon, a novel
distributed framework for automatic detection of atypical sketch content in
concurrently occurring Pictionary game sessions. We build specialized online
interfaces to collect game session data and annotate atypical sketch content,
resulting in AtyPict, the first ever atypical sketch content dataset. We use
AtyPict to train CanvasNet, a deep neural atypical content detection network.
We utilize CanvasNet as a core component of DrawMon. Our analysis of post
deployment game session data indicates DrawMon's effectiveness for scalable
monitoring and atypical sketch content detection. Beyond Pictionary, our
contributions also serve as a design guide for customized atypical content
response systems involving shared and interactive whiteboards. Code and
datasets are available at https://drawm0n.github.io.
- Abstract(参考訳): 人気のあるスケッチベースの推測ゲームであるPictionaryは、制限された通信設定で共有目標協調ゲームプレイを分析する機会を提供する。
しかし、一部のプレイヤーは時折非定型的なスケッチのコンテンツを描く。
このようなコンテンツは、ゲームコンテキストに時々関係するが、時にはルール違反を表現し、ゲーム体験を損なう。
タイムリーかつスケーラブルな方法でこのような状況に対処するために,Prictionaryゲームセッションで同時に発生する非定型スケッチコンテンツを自動的に検出する分散フレームワークDrawMonを導入する。
ゲームセッションデータを収集し,非典型的なスケッチコンテンツに注釈を付けるための,特殊なオンラインインターフェースを構築した。
我々はAtyPictを使って、深層神経非定型コンテンツ検出ネットワークCanvasNetを訓練する。
CanvasNetをDrawMonのコアコンポーネントとして利用しています。
我々は,DrawMonがスケーラブルなモニタリングと非定型スケッチコンテンツ検出に有効であることを示す。
Pictionary以外にも、私たちのコントリビューションは、共有およびインタラクティブなホワイトボードを含む非定型コンテンツ応答システムのカスタマイズのためのデザインガイドとしても機能しています。
コードとデータセットはhttps://drawm0n.github.ioで入手できる。
関連論文リスト
- SketchTriplet: Self-Supervised Scenarized Sketch-Text-Image Triplet Generation [6.39528707908268]
シーンスケッチ用の大規模なペアデータセットは引き続き欠如している。
本稿では,既存のシーンスケッチに依存しないシーンスケッチ生成のための自己教師型手法を提案する。
シーンスケッチを中心にした大規模なデータセットをコントリビュートし、セマンティックに一貫した「テキスト・スケッチ・イメージ」三つ子を含む。
論文 参考訳(メタデータ) (2024-05-29T06:43:49Z) - What Can Human Sketches Do for Object Detection? [127.67444974452411]
スケッチは非常に表現力が高く、本質的に主観的かつきめ細かい視覚的手がかりを捉えている。
スケッチ可能なオブジェクト検出フレームワークは、 textityou sketch -- textit that zebra' に基づいて検出する。
スケッチベース画像検索(SBIR)のために構築された基礎モデル(例えばCLIP)と既存のスケッチモデルとの直感的な相乗効果を示す。
特に、まず、エンコーダモデルの両方のスケッチブランチで独立に実行し、高度に一般化可能なスケッチとフォトエンコーダを構築する。
論文 参考訳(メタデータ) (2023-03-27T12:33:23Z) - Abstracting Sketches through Simple Primitives [53.04827416243121]
人間は、オブジェクト情報を素早く通信する必要があるゲームにおいて、高いレベルの抽象化能力を示す。
本稿では,プリミティブをベースとしたスケッチ抽象化タスクを提案する。
我々のPrimitive-Matching Network(PMN)は、スケッチの解釈可能な抽象化を自己管理的に学習する。
論文 参考訳(メタデータ) (2022-07-27T14:32:39Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - FS-COCO: Towards Understanding of Freehand Sketches of Common Objects in
Context [112.07988211268612]
フリーハンドシーンスケッチの最初のデータセットであるFS-COCOを用いてスケッチ研究を進めた。
本データセットは,100名の非専門家による1点あたりの時空間情報付きフリーハンドシーンベクトルスケッチからなる。
フリーハンドシーンのスケッチやスケッチのキャプションからきめ細かい画像検索の問題が初めて研究された。
論文 参考訳(メタデータ) (2022-03-04T03:00:51Z) - Music SketchNet: Controllable Music Generation via Factorized
Representations of Pitch and Rhythm [42.694266687511906]
Music SketchNetは、ユーザーが自動音楽生成を導く部分的な音楽アイデアを指定できるニューラルネットワークフレームワークである。
我々は、周囲の環境に配慮した不完全なモノフォニック音楽作品の欠落対策の作成に焦点をあてる。
生成プロセス中にユーザ指定スニペットをうまく組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-08-04T02:49:57Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z) - Sketch Less for More: On-the-Fly Fine-Grained Sketch Based Image
Retrieval [203.2520862597357]
きめ細かいスケッチベースの画像検索(FG-SBIR)は、ユーザのクエリのスケッチから特定の写真インスタンスを検索する問題に対処する。
これらの課題に対処するため、従来のFG-SBIRフレームワークを再構築する。
ユーザが絵を描き始めるとすぐに検索を開始できるオンザフライ設計を提案する。
論文 参考訳(メタデータ) (2020-02-24T15:36:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。