論文の概要: BridgeHand2Vec Bridge Hand Representation
- arxiv url: http://arxiv.org/abs/2310.06624v1
- Date: Tue, 10 Oct 2023 13:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 15:15:59.978452
- Title: BridgeHand2Vec Bridge Hand Representation
- Title(参考訳): BridgeHand2Vec ブリッジハンド表現
- Authors: Anna Sztyber-Betley, Filip Ko{\l}odziej, Jan Betley, Piotr Duszak
- Abstract要約: 本稿では,ブリッジプレーヤの手をベクトル空間に埋め込むBridgeHand2Vec手法を提案する。
結果として得られる表現は、ゲームの手の強さを反映し、解釈可能な距離を異なる手で決定することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Contract bridge is a game characterized by incomplete information, posing an
exciting challenge for artificial intelligence methods. This paper proposes the
BridgeHand2Vec approach, which leverages a neural network to embed a bridge
player's hand (consisting of 13 cards) into a vector space. The resulting
representation reflects the strength of the hand in the game and enables
interpretable distances to be determined between different hands. This
representation is derived by training a neural network to estimate the number
of tricks that a pair of players can take. In the remainder of this paper, we
analyze the properties of the resulting vector space and provide examples of
its application in reinforcement learning, and opening bid classification.
Although this was not our main goal, the neural network used for the
vectorization achieves SOTA results on the DDBP2 problem (estimating the number
of tricks for two given hands).
- Abstract(参考訳): コントラクトブリッジは不完全な情報によって特徴づけられるゲームであり、人工知能の手法にとってエキサイティングな挑戦となる。
本稿では,ブリッジプレーヤの手(13枚のカードからなる)をベクトル空間に埋め込むためにニューラルネットワークを利用するBridgeHand2Vecアプローチを提案する。
結果として得られる表現は、ゲームの手の強さを反映し、解釈可能な距離を異なる手で決定することができる。
この表現は、ニューラルネットワークをトレーニングして、一対のプレーヤーが取ることのできるトリックの数を見積もることによって導かれる。
本論文の残りの部分では,得られたベクトル空間の性質を解析し,その強化学習への応用例と入札分類の開放について述べる。
これは私たちの主な目標ではなかったが、ベクトル化に使用されるニューラルネットワークは、DDBP2問題(与えられた両手のトリック数を推定する)でSOTA結果を達成する。
関連論文リスト
- Im2Hands: Learning Attentive Implicit Representation of Interacting
Two-Hand Shapes [58.551154822792284]
Implicit Two Hands (Im2Hands) は、2つの相互作用する手の最初の暗黙の表現である。
Im2Handsは、両手と手と手と画像のコヒーレンシーの高い2つの手のきめ細かい幾何学を生成することができる。
両手再建におけるIm2Handsの有効性を, 関連手法と比較して実験的に実証した。
論文 参考訳(メタデータ) (2023-02-28T06:38:25Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - An Empirical Study and Analysis of Learning Generalizable Manipulation
Skill in the SAPIEN Simulator [12.677245428522834]
本稿では,SAPIEN ManiSkill Challenge 2021のノーインタラクショントラックについて概説する。
このアプローチは、主に2つのステップからなるエンドツーエンドのパイプラインに従っています。
我々は,ロボットシミュレータの動作スコアを,広帯域のトランスフォーマーネットワークを介して予測するために,これらの特徴を取り入れた。
論文 参考訳(メタデータ) (2022-08-31T05:45:55Z) - HandVoxNet++: 3D Hand Shape and Pose Estimation using Voxel-Based Neural
Networks [71.09275975580009]
HandVoxNet++は、完全に教師された方法でトレーニングされた3Dおよびグラフ畳み込みを備えた、ボクセルベースのディープネットワークである。
HandVoxNet++は2つの手形状表現に依存している。1つは手形状の3Dボキセル化グリッドで、メッシュトポロジを保存していない。
我々は、新しいニューラルグラフ畳み込みに基づくメッシュレジストレーション(GCN-MeshReg)または古典的セグメントワイド非リジッド重力法(NRGA++)と、手表面をボキセル化ハンド形状に整列させることにより、両表現の利点を組み合わせる。
論文 参考訳(メタデータ) (2021-07-02T17:59:54Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z) - HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose
Estimation from a Single Depth Map [72.93634777578336]
弱教師付き方式で3次元畳み込みを訓練した新しいアーキテクチャを提案する。
提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。
我々の手法は、NYUとBigHand2.2Mデータセットで視覚的により合理的で現実的な手形を生成する。
論文 参考訳(メタデータ) (2020-04-03T14:27:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。