综述:深度神经网络模型压缩和加速方法 - 蓝鲸王子 - 博客园:2021-5-9 · 网络量化通过减少表示每个权重所需的比特数来压缩原始网络。Gong et al. 对参数值使用K-Means量化。Vanhoucke et al. 使用了 8 比特参数量化可以在准确率损失极小的同时实现大幅加速。
The work of Stanford medievalists, including Rowan Dorin, Jesse Rodin and Marisa Galvez, has been featured in an article entitled "Diving into the medieval world".