論文の概要: PixelGame: Infrared small target segmentation as a Nash equilibrium
- arxiv url: http://arxiv.org/abs/2205.13124v1
- Date: Thu, 26 May 2022 03:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 13:46:55.496045
- Title: PixelGame: Infrared small target segmentation as a Nash equilibrium
- Title(参考訳): PixelGame: ナッシュ均衡としての赤外線小ターゲットセグメンテーション
- Authors: Heng Zhou, Chunna Tian, Zhenxi Zhang, Chengyang Li, Yongqiang Xie,
Zhongbo Li
- Abstract要約: 赤外線小ターゲットセグメンテーション(ISTS)の鍵となる課題は、偽負画素(FN)と偽正画素(FP)のバランスをとることである。
従来の手法では、FNとFPを重み付け和で1つの目的に組み合わせ、最適化プロセスは1つのアクターによって決定される。
ピクセルGameでは、FNとFPは、自身のユーティリティ機能を最小化することを目標とする異なるプレイヤーによって制御される。
- 参考スコア(独自算出の注目度): 1.8007510302604655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge of infrared small target segmentation (ISTS) is to balance
false negative pixels (FNs) and false positive pixels (FPs). Traditional
methods combine FNs and FPs into a single objective by weighted sum, and the
optimization process is decided by one actor. Minimizing FNs and FPs with the
same strategy leads to antagonistic decisions. To address this problem, we
propose a competitive game framework (pixelGame) from a novel perspective for
ISTS. In pixelGame, FNs and FPs are controlled by different player whose goal
is to minimize their own utility function. FNs-player and FPs-player are
designed with different strategies: One is to minimize FNs and the other is to
minimize FPs. The utility function drives the evolution of the two participants
in competition. We consider the Nash equilibrium of pixelGame as the optimal
solution. In addition, we propose maximum information modulation (MIM) to
highlight the tar-get information. MIM effectively focuses on the salient
region including small targets. Extensive experiments on two standard public
datasets prove the effectiveness of our method. Compared with other
state-of-the-art methods, our method achieves better performance in terms of
F1-measure (F1) and the intersection of union (IoU).
- Abstract(参考訳): 赤外線小ターゲットセグメンテーション(ISTS)の鍵となる課題は、偽陰画素(FN)と偽正画素(FP)のバランスをとることである。
従来の手法では、FNとFPを重み付け和で1つの目的に組み合わせ、最適化プロセスは1つのアクターによって決定される。
同じ戦略でFNとFPを最小化することは、敵対的な決定につながる。
この問題に対処するため,ISTS の新たな視点から競争ゲームフレームワーク (pixelGame) を提案する。
ピクセルGameでは、FNとFPは、自身のユーティリティ機能を最小化することを目標とする異なるプレイヤーによって制御される。
FNs-playerとFPs-playerは異なる戦略で設計されている: 1つはFNを最小化し、もう1つはFPを最小化する。
ユーティリティ機能は、競争における2人の参加者の進化を駆動する。
我々はピクセルGameのナッシュ均衡を最適解と考えている。
さらに,tar-get 情報を強調するための最大情報変調 (MIM) を提案する。
MIMは、小さなターゲットを含む健全な領域を効果的に重視する。
2つの標準公開データセットに対する大規模な実験により,本手法の有効性が証明された。
本手法は他の最先端手法と比較して,F1測度(F1)とIoUの交叉率(IoU)の点で性能が向上する。
関連論文リスト
- Bridging Jensen Gap for Max-Min Group Fairness Optimization in Recommendation [63.66719748453878]
グループ・マックスミン・フェアネス(MMF)は、最適化の目的として、フェアネス・アウェア・レコメンダシステム(RS)で一般的に使用される。
本稿では,Jensenギャップを最小化するために2つの最適化手法を利用するFairDualというアルゴリズムを提案する。
理論的解析により、FairDualは、大域的最適解に対するサブ線形収束率を達成できることが示されている。
論文 参考訳(メタデータ) (2025-02-13T13:33:45Z) - MUNBa: Machine Unlearning via Nash Bargaining [26.388179714663593]
マシン・アンラーニング(MU)は、モデル全体の有用性を保ちながら、モデルから有害な振る舞いを選択的に消去することを目的としている。
マルチタスク学習問題として、MUは、特定の概念やデータを忘れたり、一般的なパフォーマンスを保つことに関連する目的のバランスをとる。
我々はMUを2人組の協調ゲームとして再編成し、そこでは、忘れるプレイヤーと保存プレイヤーが勾配提案を通じて貢献し、全体のゲインを最大化する。
論文 参考訳(メタデータ) (2024-11-23T12:18:28Z) - Iterative Nash Policy Optimization: Aligning LLMs with General Preferences via No-Regret Learning [55.65738319966385]
我々は、新しいオンラインアルゴリズム、反復的ナッシュポリシー最適化(INPO)を提案する。
従来の方法とは異なり、INPOは個々の応答に対する期待される勝利率を推定する必要性を回避している。
LLaMA-3-8BベースのSFTモデルで、INPOはAlpacaEval 2.0で42.6%、Arena-Hardで37.8%の勝利率を達成した。
論文 参考訳(メタデータ) (2024-06-30T08:00:34Z) - ApproxED: Approximate exploitability descent via learned best responses [61.17702187957206]
連続的なアクションセットを持つゲームの近似的ナッシュ均衡を求める問題について検討する。
本稿では,戦略プロファイルに対するエクスプロイラビリティの近似を最小化する2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-01-20T23:55:30Z) - Function Approximation for Solving Stackelberg Equilibrium in Large
Perfect Information Games [115.77438739169155]
汎用ゲームにおける状態値関数の一般化であるtextitEnforceable Payoff Frontier (EPF) の学習を提案する。
Stackelbergの設定にFAを適用する最初の方法です。
論文 参考訳(メタデータ) (2022-12-29T19:05:50Z) - Model-Free Opponent Shaping [1.433758865948252]
汎用ゲームのためのM-FOS(Model-Free Opponent Shaping)を提案する。
M-FOSはメタゲームで学習し、各メタステップは根底にある「インナー」ゲームのエピソードである。
文学的な学習者や、より洗練されたアルゴリズムを駆使している。
論文 参考訳(メタデータ) (2022-05-03T12:20:14Z) - Maximizing Social Welfare in a Competitive Diffusion Model [19.18481967353127]
UIC(IM)は、バイラルマーケティングや感染封じ込めなどの応用により、多くの注目を集めている。
少数のシードユーザを選択して採用することで,ネットワーク内の多数のユーザに普及させることを目指している。
既存の競合IMの研究にはいくつかの制限がある。
論文 参考訳(メタデータ) (2020-12-06T19:09:12Z) - Learning Zero-Sum Simultaneous-Move Markov Games Using Function
Approximation and Correlated Equilibrium [116.56359444619441]
両プレイヤーのゼロサム有限ホライゾンマルコフゲームに対する効率の良い強化学習アルゴリズムを開発した。
オフライン環境では、両プレイヤーを制御し、双対性ギャップを最小化してナッシュ平衡を求める。
オンライン環境では、任意の相手と対戦する1人のプレイヤーを制御し、後悔を最小限に抑える。
論文 参考訳(メタデータ) (2020-02-17T17:04:16Z) - 6DoF Object Pose Estimation via Differentiable Proxy Voting Loss [113.72905482334767]
我々は,投票手順における仮説選択を模倣した,微分可能な代行投票損失(DPVL)を開発する。
LINEMOD と Occlusion LINEMOD という,広く使用されているデータセットの実験により,DPVL がポーズ推定性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-02-10T16:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。