論文の概要: Active Learning for Human-in-the-Loop Customs Inspection
- arxiv url: http://arxiv.org/abs/2010.14282v3
- Date: Wed, 23 Feb 2022 08:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:39:18.724108
- Title: Active Learning for Human-in-the-Loop Customs Inspection
- Title(参考訳): ヒューマン・イン・ザ・ループ税関検査のためのアクティブ・ラーニング
- Authors: Sundong Kim and Tung-Duong Mai and Sungwon Han and Sungwon Park and
Thi Nguyen Duc Khanh and Jaechan So and Karandeep Singh and Meeyoung Cha
- Abstract要約: 我々は、AI支援アルゴリズムが税関職員を支援するための、輸入品のセットを推薦する、ループ内税関検査シナリオについて検討する。
不正や不確実なアイテムを選択するためのハイブリッド戦略が、最終的には搾取のみの戦略よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.66621970520437
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We study the human-in-the-loop customs inspection scenario, where an
AI-assisted algorithm supports customs officers by recommending a set of
imported goods to be inspected. If the inspected items are fraudulent, the
officers can levy extra duties. Th formed logs are then used as additional
training data for successive iterations. Choosing to inspect suspicious items
first leads to an immediate gain in customs revenue, yet such inspections may
not bring new insights for learning dynamic traffic patterns. On the other
hand, inspecting uncertain items can help acquire new knowledge, which will be
used as a supplementary training resource to update the selection systems.
Based on multiyear customs datasets obtained from three countries, we
demonstrate that some degree of exploration is necessary to cope with domain
shifts in trade data. The results show that a hybrid strategy of selecting
likely fraudulent and uncertain items will eventually outperform the
exploitation-only strategy.
- Abstract(参考訳): 本研究では,ai支援アルゴリズムが,輸入品のセットを推薦して税関職員を支援する,ループ型税関検査シナリオについて検討する。
検査された項目が不正である場合、役員は追加の義務を負うことができる。
生成したログは、連続したイテレーションのための追加のトレーニングデータとして使用される。
疑わしい項目の検査を選択することは、まず税収の即時上昇につながるが、このような検査は動的なトラフィックパターンを学ぶための新たな洞察をもたらすものではない。
一方、不確実な項目の検査は新たな知識の獲得に役立ち、選択システムを更新するための補助的トレーニングリソースとして使用される。
3か国から得られた多年関税データセットに基づき、貿易データのドメインシフトに対処するためにある程度の探索が必要であることを実証する。
その結果,不正や不確実な項目を選択するためのハイブリッド戦略が,いずれは搾取のみの戦略を上回ることが示唆された。
関連論文リスト
- Learn When (not) to Trust Language Models: A Privacy-Centric Adaptive Model-Aware Approach [23.34505448257966]
Retrieval-augmented large language model (LLMs) は、様々なNLPタスクにおいて非常に有能である。
LLMの事前学習データを解析することにより,データ認識による検索をいつ行うかを決定する方法が提案されている。
これらのデータ認識手法は、特に機密データや広範な事前学習データへのアクセスを必要とする場合に、プライバシー上のリスクとメモリ制限をもたらす。
我々は、トークンの埋め込みがモデルの本質的な知識を捉えることができると仮定し、事前学習データへのアクセスに関連するプライバシーリスクを伴わずに、検索の必要性を判断するためのより安全で簡単な方法を提供する。
論文 参考訳(メタデータ) (2024-04-04T15:21:22Z) - Detecting and Triaging Spoofing using Temporal Convolutional Networks [6.24302896438145]
アルゴリズム取引と電子市場は 金融市場の状況を変え続けています
本稿では,市場操作を検出する領域において,様々な問題に容易に対応可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-20T09:17:12Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - GraphFC: Customs Fraud Detection with Label Scarcity [21.7060251265426]
人員が限られているため、税関は限られた数の宣言を手動で検査することしかできない。
現在の税関詐欺検出のアプローチは、この現実世界の設定にはあまり適していない。
本研究では,モデルに依存しない,ドメイン固有の,半教師付きグラフニューラルネットワークに基づく税関不正検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-19T01:47:12Z) - Customs Import Declaration Datasets [12.306592823750385]
我々は、税関行政におけるドメインエキスパートと多様なドメインの研究者の協力を促進するために、インポート宣言データセットを導入する。
データセットには、54,000の人工的に生成された取引と22のキー属性が含まれている。
我々は、より高度なアルゴリズムが詐欺を検知しやすくすることを実証的に示している。
論文 参考訳(メタデータ) (2022-08-04T06:20:20Z) - Customs Fraud Detection in the Presence of Concept Drift [2.257416403770908]
ADAPTは、エクスプロイトと探索戦略のバランスを制御する適応的選択法である。
ADAPTを用いたシステムは、データセットに徐々に適応し、高い性能で適切な探索比を求めることができる。
論文 参考訳(メタデータ) (2021-09-29T02:52:19Z) - A Survey of Exploration Methods in Reinforcement Learning [64.01676570654234]
強化学習エージェントは、学習プロセスのための情報データを得るために、探索に極めて依存する。
本稿では,(逐次的)強化学習における近代的な探究手法の調査と,探索手法の分類について述べる。
論文 参考訳(メタデータ) (2021-09-01T02:36:14Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Exploration and Incentives in Reinforcement Learning [107.42240386544633]
各エージェントが同一(ただし未知)のMDPに直面する複雑な探索問題を考察する。
エージェントはポリシーの選択を制御するが、アルゴリズムは推奨事項のみを発行できる。
MDPのすべての到達可能な状態を探索するアルゴリズムを設計します。
論文 参考訳(メタデータ) (2021-02-28T00:15:53Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Mining Implicit Relevance Feedback from User Behavior for Web Question
Answering [92.45607094299181]
本研究は,ユーザ行動と通過関連性との関連性を検討するための最初の研究である。
提案手法は,追加のラベル付きデータを使わずにパスランキングの精度を大幅に向上させる。
実際にこの研究は、グローバルな商用検索エンジンにおけるQAサービスの人為的ラベリングコストを大幅に削減する効果が証明されている。
論文 参考訳(メタデータ) (2020-06-13T07:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。