論文の概要: Identifying Individual Dogs in Social Media Images
- arxiv url: http://arxiv.org/abs/2003.06705v1
- Date: Sat, 14 Mar 2020 21:11:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:03:38.029320
- Title: Identifying Individual Dogs in Social Media Images
- Title(参考訳): ソーシャルメディア画像から個々の犬を特定する
- Authors: Djordje Batic, Dubravko Culibrk
- Abstract要約: この研究は、ペットと飼い主を対象とするソーシャルネットワークPet2Netとの共同プロジェクトの一環だ。
個々の犬を検知し、認識するために、Inception v3とSSD Inception v2アーキテクチャのトランスファーラーニングとオブジェクト検出のアプローチを組み合わせる。
個々の犬を識別すると94.59%の精度が得られることがわかった。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the results of an initial study focused on developing a visual AI
solution able to recognize individual dogs in unconstrained (wild) images
occurring on social media.
The work described here is part of joint project done with Pet2Net, a social
network focused on pets and their owners. In order to detect and recognize
individual dogs we combine transfer learning and object detection approaches on
Inception v3 and SSD Inception v2 architectures respectively and evaluate the
proposed pipeline using a new data set containing real data that the users
uploaded to Pet2Net platform. We show that it can achieve 94.59% accuracy in
identifying individual dogs. Our approach has been designed with simplicity in
mind and the goal of easy deployment on all the images uploaded to Pet2Net
platform.
A purely visual approach to identifying dogs in images, will enhance Pet2Net
features aimed at finding lost dogs, as well as form the basis of future work
focused on identifying social relationships between dogs, which cannot be
inferred from other data collected by the platform.
- Abstract(参考訳): ソーシャルメディア上で発生する非拘束(ワイルド)画像において、個々の犬を認識できる視覚的AIソリューションの開発に焦点をあてた最初の研究結果を示す。
この研究は、ペットとその飼い主を対象とするソーシャルネットワークpet2netとの共同プロジェクトの一環だ。
Inception v3とSSD Inception v2アーキテクチャのトランスファー学習とオブジェクト検出のアプローチをそれぞれ組み合わせて、ユーザがPet2Netプラットフォームにアップロードした実際のデータを含む新しいデータセットを使用して、提案したパイプラインを評価する。
個々の犬を識別すると94.59%の精度が得られる。
当社のアプローチは、単純さとpet2netプラットフォームにアップロードされたすべてのイメージへのデプロイの容易さを念頭に置いて設計されています。
画像中の犬を識別するための純粋に視覚的なアプローチは、失われた犬を見つけることを目的としたPet2Net機能を強化し、プラットフォームが収集した他のデータから推測できない犬間の社会的関係を識別することに焦点を当てた将来の作業の基礎を形成する。
関連論文リスト
- The Dog Walking Theory: Rethinking Convergence in Federated Learning [68.63601691672815]
Federated Learning(FL)は、さまざまなクライアントがプライベートデータを共有せずに、ひとつの強力なグローバルモデルをトレーニングできる、協調学習パラダイムである。
FLは様々なアプリケーションで有望な結果を示してきたが、異なるクライアント間でのデータ分散シフトに起因する収束問題に悩まされていることが知られている。
本稿では,クライアントのローカルトレーニングを指導するためのemphleashタスクとして,サーバ側の外部から容易に収束できるタスクを活用する新しいFLアルゴリズムemphFedWalkを提案する。
論文 参考訳(メタデータ) (2024-04-18T04:25:21Z) - SocialPET: Socially Informed Pattern Exploiting Training for Few-Shot
Stance Detection in Social Media [8.556183465416156]
スタンス検出とは、ソーシャルメディア投稿の目的に対する視点を「好み」や「アゲインスト」として判断するタスクである。
SocialPETは、そのタスクに言語モデルを活用するための社会的に情報を得たアプローチである。
マルチターゲットとPスタンスという2つのスタンスデータセットに対するSocialPETの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-08T11:00:09Z) - Categorizing the Visual Environment and Analyzing the Visual Attention
of Dogs [11.511035466613109]
11匹以上の犬を視認できる対象を分類するために、1198匹以上の視線を持つデータセットを収集、研究しました。
収集したデータのごく一部を使用して、新規画像領域のMaskRCNNを微調整する。
犬11頭の間には個体差はほとんどなく, バス, 植物, 舗装, 建設設備の視認性の向上が観察された。
論文 参考訳(メタデータ) (2023-11-20T18:21:18Z) - LostPaw: Finding Lost Pets using a Contrastive Learning-based
Transformer with Visual Input [0.5156484100374059]
本研究では,ペットのイメージを正確に識別できるコントラストニューラルネットワークモデルを提案する。
このモデルは、犬画像の大規模なデータセットに基づいて訓練され、3倍のクロスバリデーションによって評価された。
我々の研究結果は、失われたペットを見つけるためのツールとして、コントラストニューラルネットワークモデルが約束されていることを示唆している。
論文 参考訳(メタデータ) (2023-04-28T11:23:44Z) - Video-based estimation of pain indicators in dogs [2.7103996289794217]
この問題に対して,新しいビデオベース2ストリームディープニューラルネットワーク手法を提案する。
ビデオ上のキーポイントとRGB表現の両方から、ボディキーポイントを抽出し、プリプロセスし、特徴を計算します。
我々は、獣医が収集し、痛みの有無を注釈した、ユニークなビデオベースの犬行動データセットを提示する。
論文 参考訳(メタデータ) (2022-09-27T10:38:59Z) - CLAMP: Prompt-based Contrastive Learning for Connecting Language and
Animal Pose [70.59906971581192]
本稿では,言語とAniMal Poseを効果的に接続するための,新しいプロンプトベースのコントラスト学習手法を提案する。
CLAMPは、ネットワークトレーニング中にテキストプロンプトを動物のキーポイントに適応させることでギャップを埋めようとしている。
実験結果から, 教師付き, 少数ショット, ゼロショット設定下での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-06-23T14:51:42Z) - A Competitive Method for Dog Nose-print Re-identification [46.94755073943372]
本稿では,CVPR 2022ペット生体認証における犬の鼻指紋認証(Re-ID)課題について提案する。
複数のモデルが組み合わされ、テストセット上で86.67%のAUCが得られる。
論文 参考訳(メタデータ) (2022-05-31T16:26:46Z) - Persistent Animal Identification Leveraging Non-Visual Markers [71.14999745312626]
乱雑なホームケージ環境下で各マウスにユニークな識別子を時間をかけて発見し提供することを目的としている。
これは、(i)各マウスの視覚的特徴の区別の欠如、(ii)一定の閉塞を伴うシーンの密閉性のため、非常に難しい問題である。
本手法は, この動物識別問題に対して77%の精度を達成し, 動物が隠れているときの急激な検出を拒否することができる。
論文 参考訳(メタデータ) (2021-12-13T17:11:32Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Onfocus Detection: Identifying Individual-Camera Eye Contact from
Unconstrained Images [81.64699115587167]
Onfocus Detectionは、カメラが捉えた個人の焦点がカメラにあるかどうかを特定することを目的としている。
OnFocus Detection In the Wild (OFDIW) と呼ばれる大規模なオンフォーカス検出データセットを構築しました。
本研究では,視線干渉推論ネットワーク (ECIIN) を用いた眼球深度検出モデルを提案する。
論文 参考訳(メタデータ) (2021-03-29T03:29:09Z) - Dog Identification using Soft Biometrics and Neural Networks [1.2922946578413577]
ペットの身元を決定するため,ペットの写真にディープニューラルネットワークなどの高度な機械学習モデルを適用した。
我々は,ペットの顔写真などの「硬い」バイオメトリックスと融合する際に,品種,身長,性別などの異なるタイプの「軟い」バイオメトリックスを使用することの可能性を探る。
提案したネットワークは,2種の犬種間の相違により,90.80%と91.29%の精度を達成できる。
論文 参考訳(メタデータ) (2020-07-22T10:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。