1 minute read

[UDA][SS] ECAP: EXTENSIVE CUT-AND-PASTE AUGMENTATION FOR UNSUPERVISED DOMAIN ADAPTIVE SEMANTIC SEGMENTATION

  • paper: https://arxiv.org/abs/2403.03854
  • github: https://github.com/ErikBrorsson/ECAP
  • archive (인용수: 0회, ‘24-03-10 기준)
  • downstream task: UDA for SS

1. Motivation

  • domain shift가 있는 상황에서 pseudo label 은 easy-to-use class에 dominant해짐
  • 이를 해결코자 bridge domain을 cut-and-paste를 활용하는 기존 연구가 있음
  • 여기에 memory-bank를 활용하여 reliable pseudo label을 늘리면 좋지 않을까?

2. Contribution

  • pseudo-label의 noise를 줄이기 위한 UDA augmentation 새로운 방식인 Extensive Cut-and-Paste(ECAP)를 제안함
    • 어떻게? 잘 맞추었다고 예상되는 (reliable) pusedo-labeled pixel의 비중을 늘려주는 cut-and-paste augmentation을 활용함으로써
  • SOTA at UDA for SS
  • 다양한 분석 시도함

3. ECAP

  • overview

  • Mixed Image

  • Target domain Loss

    • Weighted Cross Entropy Loss 활용

  • Total Loss

  • Memory Bank

    • Target image와 pseudo label, class index를 저장하고 있음

      • $B_c$: memory bank의 크기
        • $g_{\phi}$: teacher network의 (i,j)번째 pixel의 class = c 의 output
  • Sampler

    • Memory bank 내에서 top $n^{B_c}$개의 prediction 중 random sampling

      • $n_{B_c}$: hyper-parameter.
      • $q(n^{B_c})$: $n_{B_c}$번째 sample의 prediction score
      • $q^{B_c, l}$: memory banck $B_c$에서 l번째 sample의 pseudo prediction score
      • $p^{B_c,l}$ l번째 sample이 sampling될 확률
  • 최종 sampling equation

    $\beta, \gamma, n_0$: hyper-paramter

    $\sigma$: sigmoid

  • Augmentation Module

    • Mixing하기 전에 random augmentation수행 $\to$ 실험적으로 성능 향상에 기여하진 않음

      • $\alpha$: augmentation method
      • DACS: baseline이 되는 방식

4. Experiments

  • Ablation

    • with and without ECAP

    • Upper-bound

      • denoise: Target GT를 활용해서 틀린 부분은 loss에 반영 안하도록 함
  • Memory bank의 pseudo GT quality

    • Thihgs class는 좋은데 Stuff Class는 별로 안좋음
  • Hyper-parameter sensitivity

Updated: