cgan_jittor
项目简述:
使用 jittor 深度学习框架实现 CGAN 模型,训练 0-9数字生成。
项目使用:
使用任意方式安装 jittor 框架后运行 CGAN.py
环境要求:
- python 解释器版本 >= 3.7
- g++ 编译期版本 >= 5.4.0 (for linux)
项目遇到的一些问题以及解决方案:
对于本人笔记本 has_cuda 识别后自动使用 nvcc 编译运行会出现问题,可能是电脑的 GeForce MX350 未起作用,猜测可能是英伟达上一代的 PASCAL 显卡架构支持的 cuda 操作集和 jittor 所需有差异。于是只能将 has_cuda 识别后的 use_cuda 仍然设置为 0,不过 CPU 训练模型的速度大约只有 5~6 分钟一个 epoch。
使用台式上的 linux 系统安装 jittor 的 docker 镜像后,使用 cuda 仍然存在问题,报错显示 compute_89 不存在,说明 RTX 系列的 ada lovelace 架构支持的 8x compute capability 不是 jittor 在使用 cuda 编译运行时的默认 ARCH(我还不知道如何在 python 代码中调整 cuda_arch)?总之最后还是只使用了 cpu 训练,不过比笔记本快了不少,一个小时还是足够完成的了。
cgan_jittor
项目简述:
使用 jittor 深度学习框架实现 CGAN 模型,训练 0-9数字生成。
项目使用:
使用任意方式安装 jittor 框架后运行 CGAN.py
环境要求:
项目遇到的一些问题以及解决方案:
对于本人笔记本 has_cuda 识别后自动使用 nvcc 编译运行会出现问题,可能是电脑的 GeForce MX350 未起作用,猜测可能是英伟达上一代的 PASCAL 显卡架构支持的 cuda 操作集和 jittor 所需有差异。于是只能将 has_cuda 识别后的 use_cuda 仍然设置为 0,不过 CPU 训练模型的速度大约只有 5~6 分钟一个 epoch。
使用台式上的 linux 系统安装 jittor 的 docker 镜像后,使用 cuda 仍然存在问题,报错显示 compute_89 不存在,说明 RTX 系列的 ada lovelace 架构支持的 8x compute capability 不是 jittor 在使用 cuda 编译运行时的默认 ARCH(我还不知道如何在 python 代码中调整 cuda_arch)?总之最后还是只使用了 cpu 训练,不过比笔记本快了不少,一个小时还是足够完成的了。