Universal Style Transfer via Feature Transforms
Published:
以下将分为3个部分介绍:
- 效果
- 解決的問題
- How to solve it?
先来看一下效果
和我们之前方案类似 解决不同size下的笔触问题,如下图如果只用256的size去训练较coarse的笔触 或者 用1024的size去训练较fine的笔触 因此单独训练 学出来的结果的笔触会和原图有较大的出入。
Tensorflow Block 实现 Detail:
2.Trick2 把de-convolution 都换为bilinear upsampling的方式来避免checkerboard
3.Trick3 模型迭代refine法 把模型分为三部分来进行训练refine。
分别为
1) Style Subnet(256) 用来捕获 color & texture traits
2) Enhance Subnet(512) 用来做stylization strength
3) Refine Subnet(1024) 用来remove local pixelization artifacts
Loss组合为:
Scale Basic Loss = Content Loss + Style Loss
Combine Loss = a * Scale1 Basic Loss + b * Scale2 Basic Loss + c * Scale3 Basic Loss (a : b : c = 1 : 0.5 : 0.25)
Leave a Comment