論文の概要: The Anatomical Edutainer
- arxiv url: http://arxiv.org/abs/2010.09850v1
- Date: Fri, 16 Oct 2020 10:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 21:53:51.156260
- Title: The Anatomical Edutainer
- Title(参考訳): 解剖学的Edutainer
- Authors: Marwin Schindler, Hsiang-Yun Wu, Renata Georgia Raidou
- Abstract要約: Anatomical Edutainerは、有形で対話的な解剖学のエデュタインメントのための、簡単で、アクセスしやすく、手頃な価格の物理化を導くためのワークフローである。
Anatomical Edutainerは、2Dプリントと3D折り畳み可能な物理化をサポートしている。
- 参考スコア(独自算出の注目度): 0.47267770920095525
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical visualizations (i.e., data representations by means of physical
objects) have been used for many centuries in medical and anatomical education.
Recently, 3D printing techniques started also to emerge. Still, other medical
physicalizations that rely on affordable and easy-to-find materials are
limited, while smart strategies that take advantage of the optical properties
of our physical world have not been thoroughly investigated. We propose the
Anatomical Edutainer, a workflow to guide the easy, accessible, and affordable
generation of physicalizations for tangible, interactive anatomical
edutainment. The Anatomical Edutainer supports 2D printable and 3D foldable
physicalizations that change their visual properties (i.e., hues of the visible
spectrum) under colored lenses or colored lights, to reveal distinct anatomical
structures through user interaction.
- Abstract(参考訳): 物理的視覚化(物理オブジェクトによるデータ表現)は、医学や解剖学の教育で何世紀にもわたって使われてきた。
最近では3dプリント技術も登場している。
とはいえ、手頃で手軽に仕上げられる材料に頼っている他の医学的物理化は限られているが、我々の物理的世界の光学的特性を生かしたスマート戦略は十分に研究されていない。
本稿では,有形でインタラクティブな解剖学的edutainmentのための,容易でアクセス性があり,手頃な物理化を導くワークフローであるanatomical edutainerを提案する。
解剖学的なedutainerは、2dプリントおよび3d折り畳み可能な物理化をサポートし、色付きレンズまたはカラーライトの下でその視覚特性(すなわち可視光の色相)を変化させ、ユーザーインタラクションを通じて異なる解剖学的構造を明らかにする。
関連論文リスト
- Compositional Physical Reasoning of Objects and Events from Videos [122.6862357340911]
本稿では,物体の動きや相互作用から隠れた物理的特性を推定するという課題に対処する。
我々は、ComPhyの最先端ビデオ推論モデルを評価し、これらの隠れプロパティをキャプチャする限られた能力を明らかにする。
また,視覚的および隠れた物理的特性を学習し,原因を解明する,新しいニューロシンボリックな枠組みであるPhysical Concept Reasoner(PCR)を提案する。
論文 参考訳(メタデータ) (2024-08-02T15:19:55Z) - Physical Property Understanding from Language-Embedded Feature Fields [27.151380830258603]
本稿では,画像の集合を用いて物体の物理的特性を高密度に予測する手法を提案する。
人間が視覚を通して物理学をどう考えるかに触発されて、我々は大きな言語モデルを活用して、各対象に対して候補となる材料を提案する。
我々の手法は正確で、アノテーションなしで、オープン世界のどんなオブジェクトにも適用できます。
論文 参考訳(メタデータ) (2024-04-05T17:45:07Z) - Visual Tomography: Physically Faithful Volumetric Models of Partially
Translucent Objects [0.0]
オブジェクトのデジタル3D表現は、人間やコンピュータによる解析に有用である。
半半透明物体の内部を含む物理モデルを得るためのボリューム再構成手法を提案する。
我々の技術は、明るい白色光源の前で異なるポーズの下で物体を撮影し、ボクセル当たりの吸収と散乱を計算する。
論文 参考訳(メタデータ) (2023-12-21T00:14:46Z) - S2P3: Self-Supervised Polarimetric Pose Prediction [55.43547228561919]
本稿では,マルチモーダルRGB+ポラリメトリック画像から,最初の自己監督型6次元オブジェクトポーズ予測を提案する。
1) 偏光の幾何学的情報を抽出する物理モデル,2) 教師による知識蒸留方式,3) 異なる制約による自己監督的損失の定式化を含む。
論文 参考訳(メタデータ) (2023-12-02T10:46:40Z) - CaPhy: Capturing Physical Properties for Animatable Human Avatars [44.95805736197971]
CaPhyは、服のリアルなダイナミックな特性を持つ、アニマタブルな人間のアバターを再構築する新しい方法である。
本研究の目的は、実際の観測から衣服の幾何学的・物理的特性を捉えることである。
我々は,非教師なしトレーニングと物理に基づく損失と,スキャンデータを用いた3次元教師ありトレーニングを組み合わせて,衣服の動的モデルを構築した。
論文 参考訳(メタデータ) (2023-08-11T04:01:13Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z) - Neural Actor: Neural Free-view Synthesis of Human Actors with Pose
Control [80.79820002330457]
任意の視点と任意の制御可能なポーズの下での人間の高品質な合成法を提案する。
提案手法は,新しいポーズ合成法と同様に,再生時の最先端技術よりも優れた品質を実現し,トレーニングポーズと大きく異なる新しいポーズを一般化することができる。
論文 参考訳(メタデータ) (2021-06-03T17:40:48Z) - Slice and Dice: A Physicalization Workflow for Anatomical Edutainment [1.246150324257064]
本稿では, 解剖学的教育のための新しい医療データ物理化手法を提案する。
当社のアプローチは、コスト効率が高く、シンプルで、作業が容易なワークフローを踏襲し、組立て可能なデータ彫刻を生み出します。
パッキングアルゴリズムは、得られたスライスにラベル、アノテーション、組み立て指示を紙または透明なサイズで配置する。
論文 参考訳(メタデータ) (2020-11-11T10:51:55Z) - ThreeDWorld: A Platform for Interactive Multi-Modal Physical Simulation [75.0278287071591]
ThreeDWorld (TDW) はインタラクティブなマルチモーダル物理シミュレーションのためのプラットフォームである。
TDWは、リッチな3D環境において、高忠実な感覚データのシミュレーションと、移動体エージェントとオブジェクト間の物理的相互作用を可能にする。
我々は、コンピュータビジョン、機械学習、認知科学における新たな研究方向において、TDWによって実現された初期実験を提示する。
論文 参考訳(メタデータ) (2020-07-09T17:33:27Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。