Deep Mutual Learning
《Deep Mutual Learning》论文笔记,该文提出了 DML 策略,在训练过程中模型之间互相学习。实验结果显示,有力的先验教师网络不是必要的,学生网络之间互学习蒸馏的性能比从静态有力的教师网络中蒸馏效果更好。
《Deep Mutual Learning》论文笔记,该文提出了 DML 策略,在训练过程中模型之间互相学习。实验结果显示,有力的先验教师网络不是必要的,学生网络之间互学习蒸馏的性能比从静态有力的教师网络中蒸馏效果更好。
《AgileGAN: Stylizing Portraits by Inversion-Consistent Transfer Learning》论文笔记。本文提出了一种快速、仅需要少样本迁移训练即可生成高质量风格化人脸的方法。
阅读《Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised VisualRepresentation Learning》笔记
《 Large Memory Layers with Product Keys 》笔记,该文提出了一种 memory layer,目的是为神经网络提供大容量层。
本文设计了一种新的注意力机制,旨在有效提高 ViT 的深度。它可以在不需要额外数据、teacher 网络和特定领域归纳偏差的情况下在视觉任务上表现良好。
学习李宏毅老师关于 Self-Attention 与 Transformer 课程的笔记。
《Learning Flow-based Feature Warping for Face Frontalization with Illumination Inconsistent Supervision》论文笔记
《TOWARDS FASTER AND STABILIZED GAN TRAINING FOR HIGH-FIDELITY FEW-SHOT IMAGE SYNTHESIS》论文阅读笔记。
《SuperFront: From Low-resolution to High-resolution Frontal Face Synthesis》论文笔记