論文の概要: Surprise machines: revealing Harvard Art Museums' image collection
- arxiv url: http://arxiv.org/abs/2308.09343v1
- Date: Fri, 18 Aug 2023 07:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 14:15:49.433644
- Title: Surprise machines: revealing Harvard Art Museums' image collection
- Title(参考訳): サプライズ・マシーンズ:ハーバード大学の美術館の画像コレクションを公開
- Authors: Dario Rodighiero, Lins Derry, Douglas Duhaime, Jordan Kruguer,
Maximilian C. Mueller, Christopher Pietsch, Jeffrey T. Schnapp, Jeff Steward
- Abstract要約: Surprise Machines(サプライズ・マシーンズ)は、ハーバード大学美術館の画像コレクション全体を視覚化する実験的なミューズロジーのプロジェクトである。
このプロジェクトは、人工知能の限界を探求し、大量の画像を表示し、訪問者に驚きを与える。
- 参考スコア(独自算出の注目度): 0.10993800728351737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surprise Machines is a project of experimental museology that sets out to
visualize the entire image collection of the Harvard Art Museums, intending to
open up unexpected vistas on more than 200,000 objects usually inaccessible to
visitors. Part of the exhibition Curatorial A(i)gents organized by metaLAB (at)
Harvard, the project explores the limits of artificial intelligence to display
a large set of images and create surprise among visitors. To achieve such a
feeling of surprise, a choreographic interface was designed to connect the
audience's movement with several unique views of the collection.
- Abstract(参考訳): サプライズ・マシーン(英語: surprise machines)は、ハーバード大学の美術館の画像コレクション全体を可視化する実験的なミューズロジーのプロジェクトであり、通常訪問者にはアクセスできない20万以上のオブジェクトの予期せぬビスタを開くことを目的としている。
MetaLAB (at) Harvardが主催する展示会「Curatorial A(i)gents」の一環として、このプロジェクトは人工知能の限界を探究し、大量の画像を表示し、訪問者に驚きを与える。
このような驚きを味わうために、コレオグラフィック・インタフェースは、観客の動きとコレクションのいくつかのユニークな視点を結びつけるように設計された。
関連論文リスト
- Artworks Reimagined: Exploring Human-AI Co-Creation through Body Prompting [3.7907687118593323]
本稿では、生成人工知能を用いた画像生成のための入力として、ボディプロンプトについて考察する。
このコンセプトをインタラクティブなアートインスタレーションであるArtworks Reimaginedに実装し、ボディプロンプトを通じてアートを変換します。
我々は、生成AIとの3つの異なる相互作用パターンを識別し、参加者のボディプロンプトとAI共創体験に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-08-10T08:05:59Z) - V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - Algorithmic Ways of Seeing: Using Object Detection to Facilitate Art Exploration [8.680322662037721]
視覚的な探索のための設計プロセスにオブジェクト検出パイプラインを組み込む方法を示す。
本稿では,美術館のコレクションを探索するアプリの設計と開発について紹介する。
論文 参考訳(メタデータ) (2024-03-28T06:46:45Z) - Exploring Values in Museum Artifacts in the SPICE project: a Preliminary
Study [2.2767504227733246]
本論文は、EU H 2020 SPICEプロジェクトで開発された意味推論ツールの理論的、実装、および予備評価について述べる。
DEGARI 2.0と呼ばれるこのツールは、コモンセンス推論フレームワークTCLに依存しており、ハイドの道徳的価値の理論を定式化した存在論的モデルを利用して、博物館のアイテムと組み合わせた価値観と感情を関連付ける。
論文 参考訳(メタデータ) (2023-11-13T15:24:55Z) - MOHO: Learning Single-view Hand-held Object Reconstruction with
Multi-view Occlusion-Aware Supervision [75.38953287579616]
ハンドヘルドオブジェクト再構成のためのハンドオブジェクトビデオから,多視点オクルージョン対応監視を利用する新しいフレームワークを提案する。
このような設定において、手による排他と対象の自己排他という2つの主要な課題に対処する。
HO3D と DexYCB のデータセットを用いた実験では、2D のMOHO が 3D の教師付き手法に対して大きなマージンで優れた結果を得ることが示された。
論文 参考訳(メタデータ) (2023-10-18T03:57:06Z) - Beyond Surprise: Improving Exploration Through Surprise Novelty [68.36421281434585]
本稿では、既存のサプライズ駆動探索の限界に対処する強化学習における本質的な報奨のための新しい計算モデルを提案する。
本稿では,サプライズを記憶ネットワークの検索エラーとして推定し,サプライズを記憶・再構成する。
我々のサプライズメモリ(SM)は、サプライズベースの固有のモチベーターの能力を増強し、エージェントのエキサイティングな探索への関心を維持しながら、望ましくないアトラクションを予測不可能またはノイズの多い観測に還元する。
論文 参考訳(メタデータ) (2023-08-09T09:58:42Z) - The ObjectFolder Benchmark: Multisensory Learning with Neural and Real
Objects [51.22194706674366]
マルチセンサーなオブジェクト中心学習のための10のタスクからなるベンチマークスイートであるObject Benchmarkを紹介した。
また,100個の実世界の家庭用オブジェクトに対するマルチセンサー計測を含む,オブジェクトリアルデータセットについても紹介する。
論文 参考訳(メタデータ) (2023-06-01T17:51:22Z) - ODOR: The ICPR2022 ODeuropa Challenge on Olfactory Object Recognition [20.33359041243155]
Odeuropa Challenge on Olfactory Object Recognitionは、視覚芸術における物体検出の開発を促進することを目的としている。
注記された2647点のアートワークのデータセットに,20120点の厳密なバウンディングボックスを設けた。
1140のアートワークと15の480のアノテーションを含むテストセットは、課題評価のためにプライベートに保持される。
論文 参考訳(メタデータ) (2023-01-24T09:35:43Z) - What Images are More Memorable to Machines? [87.14558566342322]
人間と同様、機械は特定の種類の画像を記憶する傾向があるが、機械と人間の画像の種類は異なる。
本研究は,機械記憶可能性の概念を提案し,マシンメモリと視覚データとのインタフェースに新たな研究方向を開く。
論文 参考訳(メタデータ) (2022-11-14T18:48:08Z) - VizWiz-FewShot: Locating Objects in Images Taken by People With Visual
Impairments [74.72656607288185]
我々は、撮影した画像の視覚的内容について真に学ぼうとしていた写真家を起源とする、数発のローカライゼーションデータセットを紹介した。
視覚障害者が撮影した4500枚以上の画像に、100のカテゴリの約10,000のセグメンテーションが含まれている。
既存の数発のオブジェクト検出やインスタンスセグメンテーションデータセットと比較して、私たちのデータセットは、オブジェクトの穴を見つける最初のものです。
論文 参考訳(メタデータ) (2022-07-24T20:44:51Z) - Museum Accessibility Through Wi-Fi Indoor Positioning [0.0]
ウルグアイの国立視覚博物館(MNAV, National Museum of Visual Arts)は、視覚障害者が新しい展示会をシームレスに見学できるように、新しいシステムを導入しようとした。
私たちはWi-Fi屋内位置決め技術を使って、視覚障害者が博物館内の位置情報に基づいて、自分のスマートフォンからAndroidアプリを通じて関連するオーディオを聴けるようにしました。
このシステムは、訪問中に一般大衆を支援するためにさらに適応され、その位置に応じてテキスト、オーディオ、画像へのアクセスを可能にした。
論文 参考訳(メタデータ) (2020-08-26T02:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。