TinyML and Efficient Deep Learning Computing

这门课程将介绍如何提高AI计算的效率,以便在资源有限的设备上实现强大的深度学习应用。课程内容包括模型压缩、剪枝、量化、神经网络架构搜索、分布式训练、数据/模型并行化、梯度压缩以及在设备上进行微调。还将探讨针对大型语言模型、扩散模型、视频识别和点云的特定加速技术,以及量子机器学习的相关主题。学生将有机会亲手在笔记本电脑上部署大型语言模型(如LLaMA 2)。

总体来说,这门课程旨在让大型生成模型(如大型语言模型和扩散模型)在需要大量计算资源的情况下更加高效和易于获取。

参考