事实上,绕过 CUDA 也并非一种新鲜做法。现在也有一些和 CUDA 对标的编程框架,如 Triton 并且其是开源的。此前北京智源研究院的相关研究人员也专门基于 Triton 去加速英伟达以及国产的 GPU,且也可以认为这是一种绕过了 CUDA 去调用 GPU 驱动提供的相关函数的做法。
以目前 AI 方向技术人员为例,通常在本科阶段基本上只会接触到基于深度学习框架(通常为 Python 语言)来训练神经网络,还不会直接接触到各类深度学习框架提供的用 C++ 来写 CUDA 相关的编程任务(有一些好学者或者有参与科研项目的人员有可能会利用 C++ 来写 CUDA 实现相关算法的提速)。
这些人员在工作以后有可能由于 AI 项目落地的需要,会接触到针对具体的硬件资源来适配模型的编程,但要绕过 CUDA 来写模型的训练算法,通常没有这样的需求。