論文の概要: Pingmark: A Textual Protocol for Universal Spatial Mentions
- arxiv url: http://arxiv.org/abs/2510.09672v1
- Date: Wed, 08 Oct 2025 16:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.545283
- Title: Pingmark: A Textual Protocol for Universal Spatial Mentions
- Title(参考訳): Pingmark: 普遍的な空間的行為のためのテキストプロトコル
- Authors: Kalin Dimitrov,
- Abstract要約: Pingmarkは、空間コンテキストを最小限のシンボルで表現するための普遍的なテキストプロトコルを定義している。
本稿では、Pingmark Protocol Specification(PPS v0.1)のモチベーション、構文、設計、参照レゾルバの実装、空間参照のためのオープンインターネット標準としてPingmarkを確立するという長期的な目標について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pingmark defines a universal textual protocol for expressing spatial context through a minimal symbol: !@. Rather than embedding coordinates or using proprietary map links, Pingmark introduces a semantic trigger that compliant client applications interpret to generate a standardized resolver link of the form https://pingmark.me/lat/lon/[timestamp]. This allows location expression to function like existing textual conventions - @ for identity or # for topics - but for physical space. The protocol requires no user registration, relies on open mapping technologies, and protects privacy by generating location data ephemerally and locally. This paper presents the motivation, syntax, and design of the Pingmark Protocol Specification (PPS v0.1), its reference resolver implementation, and the long-term goal of establishing Pingmark as an open Internet standard for spatial mentions.
- Abstract(参考訳): Pingmarkは、空間的コンテキストを最小限のシンボルで表現するための普遍的なテキストプロトコルを定義している。
と。
Pingmarkは、座標を埋め込んだり、プロプライエタリなマップリンクを使う代わりに、クライアントアプリケーションが解釈してhttps://pingmark.me/lat/lon/[timestamp]という形式の標準化されたリゾルバリンクを生成するセマンティックトリガを導入している。
これにより、位置表現は既存のテキストコンベンション(アイデンティティは@、トピックは#、物理空間は#)のように機能する。
このプロトコルはユーザ登録を必要とせず、オープンマッピング技術に依存し、位置情報を短時間でローカルに生成することでプライバシを保護する。
本稿では、Pingmark Protocol Specification(PPS v0.1)のモチベーション、構文、設計、参照レゾルバの実装、空間参照のためのオープンインターネット標準としてPingmarkを確立するという長期的な目標について述べる。
関連論文リスト
- Bridging Annotation Gaps: Transferring Labels to Align Object Detection Datasets [26.566426911250296]
Label-Aligned Transfer Proposal (LAT)は、さまざまなソースデータセットからのアノテーションをターゲットラベル空間に体系的にプロジェクションする。
LATは目標領域検出性能を一貫した改善し、半教師付きベースラインよりも最大4.8APのゲインを得る。
論文 参考訳(メタデータ) (2025-06-05T08:16:15Z) - Circle-RoPE: Cone-like Decoupled Rotary Positional Embedding for Large Vision-Language Models [49.122200327049676]
ロータリー位置埋め込み(RoPE)は,大規模言語モデルにおいて相対位置情報を符号化する手法として広く採用されている。
視覚言語モデル(VLM)に拡張されると、RoPEとその変種はテキストと画像トークンの間で相対的な位置依存を強制する。
本稿では,スパイラルなクロスモーダルバイアスを除去する新しい符号化方式であるCircle-RoPEを紹介する。
論文 参考訳(メタデータ) (2025-05-22T09:05:01Z) - Bytes to Schlep? Use a FEP: Hiding Protocol Metadata with Fully Encrypted Protocols [2.225268436173329]
完全な暗号化プロトコル(FEP)は、完全にランダムに見えるメッセージを生成する。
プロトコルメタデータの保護にはセキュリティとプライバシのメリットがあるため、FEPには検閲回避以上の関連性がある。
FEPのメタデータ保護の目標を捉える新しいセキュリティ定義を提供する。
論文 参考訳(メタデータ) (2024-05-22T03:05:33Z) - Geotokens and Geotransformers [0.0]
本稿では, 変圧器の入力成分であるジオトケンについて述べる。
典型的な言語列とは異なり、これらのトークンの場合、順序は地理的座標そのものほど重要ではない。
論文 参考訳(メタデータ) (2024-03-23T22:02:56Z) - Surface Reconstruction from Point Clouds by Learning Predictive Context
Priors [68.12457459590921]
点雲からの表面の再構成は、3Dコンピュータビジョンにとって不可欠である。
推論時に各ポイントクラウドに対して予測的クエリを学習することで予測的コンテキスト優先を導入する。
一つの形状や複雑なシーンの表面再構成実験の結果, 広く使用されているベンチマークでは, 最先端のベンチマークよりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2022-04-23T08:11:33Z) - HyperSeg: Patch-wise Hypernetwork for Real-time Semantic Segmentation [95.47168925127089]
本稿では,エンコーダがデコーダのパラメータ(重み)をエンコードして生成する,新しいリアルタイムセマンティックセグメンテーションネットワークを提案する。
我々は、より高レベルなコンテキスト特徴を描画するためのネストされたU-Netからなる新しいタイプのハイパーネットワークを設計する。
論文 参考訳(メタデータ) (2020-12-21T18:58:18Z) - SIRI: Spatial Relation Induced Network For Spatial Description
Resolution [64.38872296406211]
言語誘導型ローカライゼーションのための新しい関係誘導型ネットワーク(SIRI)を提案する。
提案手法は,80ピクセルの半径で測定した精度で,最先端手法よりも約24%優れていた。
提案手法は,Touchdownと同じ設定で収集した拡張データセットをうまく一般化する。
論文 参考訳(メタデータ) (2020-10-27T14:04:05Z) - TSPNet: Hierarchical Feature Learning via Temporal Semantic Pyramid for
Sign Language Translation [101.6042317204022]
手話翻訳(SLT)は、手話のシーケンスをテキストベースの自然言語文に解釈することを目的としている。
既存のSLTモデルは通常、手話の視覚的特徴をフレーム的に表現する。
我々は,TSPNetと呼ばれる時間的意味ピラミッドネットワークを用いて,新しい階層的な手話ビデオ特徴学習手法を開発した。
論文 参考訳(メタデータ) (2020-10-12T05:58:09Z) - Transferring Cross-domain Knowledge for Video Sign Language Recognition [103.9216648495958]
単語レベルの手話認識(WSLR)は手話解釈の基本課題である。
ドメイン不変の視覚概念を学習し、サブタイトルのニュースサインの知識を伝達することでWSLRモデルを肥大化させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-08T03:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。