Deep Learning/Efficient (1) 썸네일형 리스트형 [2020.07] Rethinking Channel Dimensions for Efficient Model Design 기존에 MobileNet V2 이후로, Efficient Neural Network를 디자인함에 있어서 각 Layer에 Channel Configuration을 FLOPs constraint를 만족하는 것에 우선순위를 두어 Design을 하는 것에 초점을 두었습니다 (i.e., 앞 Layer에서는 Channel을 적게, 뒤 Layer에서는 Channel을 굉장히 많이 사용). 본 논문에서는 각 Layer에서의 Output Feature의 Rank 분석에 기반하여 각 Layer 또는 Block의 Channel 수를 해당 Block의 Index에 Linear하게 Parameterize (i.e, $a*f(i) + b$, 여기서 a와 b는 Learning Parameter) 하는 방법을 제안하였습니다. 여기서.. 이전 1 다음