跳到主要内容

概述

当前人工智能算法主要计算量是矩阵运算,而GPU的结构是矩阵运算的并行化,所以在GPU上计算矩阵运算的速度是比CPU快的。所以大部分的模型都有GPU训练加速的配置选项。

CUDA是英伟达(NVIDIA)公司开发的一种并行计算平台和编程模型。使得开发人员能够更容易地利用GPU的并行计算能力,从而在各种计算密集型应用中实现显著的性能提升。它已成为GPU通用计算领域的重要技术之一。

因此为了我们高速训练模型,我们需要安装使用CUDA模型、在机器学习框架中使用CUDA模型。

NVIDIA JetPack SDK 是构建端到端加速 AI 应用的全面解决方案。JetPack 为硬件加速的边缘 AI 开发提供了完整的开发环境。JetPack 支持所有 Jetson 模组和开发者套件。

JetPack 包括带有引导加载程序的 Jetson Linux、Linux 内核、Ubuntu 桌面环境,以及一整套用来为 GPU 计算、多媒体、图形和计算机视觉加速的库。

JetPack 5.0.2 是生产级质量版本,包括搭载 Linux 内核 5.10 的 Jetson Linux 35.1 BSP、基于 Ubuntu 20.04 的根文件系统、基于 UEFI 的引导加载程序以及作为可信执行环境的 OP-TEE。JetPack 5.0.2 包括 Jetson 上的新版计算栈,配备了 CUDA 11.4、TensorRT 8.4.1 和 cuDNN 8.4.1

所以我们通过安装JetPack来一站式解决我们的问题。

安装语法:

sudo apt update

sudo apt dist-upgrade

sudo reboot

sudo apt install nvidia-jetpack

可以通过以下方式检查自己是否已经下载了JetPack

根据一般经验,运行一个7B模型(1B为1万亿参数)所需的内存应该不低于7G,储存不低于14G。可以根据这点选择合适的模型(例如0.5B)去了解模型的工作原理。

提示

目前GPT4约为1800B,对个人与绝大部分企业来说,使用大公司的API接口将会是未来获得高质量AI最经济也最方便的方式。

通常来说,模型的参数量越大,推理质量也越好。当然,模型的推理质量和参数量并不是完全绝对的。

对于其他的模型,例如语音识别、图像识别等,令人满意的模型则小的多。