【求教】怎样把python的程序放在gpu上跑?

  • s
    singlejoe
    google colab
  • Z
    Zerolone
    看你的打的字, 2个星期你就要搞人工智能了?
  • a
    ageg
    你要去看tensorflow的教程,普通py代码不能在gpu上跑
  • l
    lastmandream
    要跑在gpu上,优先用c++啊,写shader
  • h
    hitmanx
    概括来说,你把gpu想象成和你的pc分离的、单独的一台机器,你可以用这台单独的机器来运算。那么显然,提交工作到gpu上跑,你需要把输入拷贝到gpu的显存中,需要把代码拷贝到gpu的显存中,然后提交你要干的任务,等待它跑完,最后再把输出拷贝回来。当然实际上nvidia的driver以及cuda的runtime库帮你干了很多事,使得你只需要通过CUDA的API就可以很方便的操作。而在它上层又开发了很多了c\py wrapper库,以及一些针对特定应用场景比如机器学习的框架会帮你去操作cuda API.
  • w
    wflove
    数据多,在gpu上跑也不见得快吧,gpu主要加速矩阵运算浮点运算吧,你瓶颈在哪里?
  • p
    pepsin
    还得看你的计算能不能迁移到 GPU 上跑呀
  • a
    apolodi
    找一个GPU跑的指南,然后去这里下载各种支撑包就可以了,https://www.lfd.uci.edu/~gohlke/pythonlibs/(可以解决几乎一切问题)
  • R
    Rorysky
    问对人了

    iOS fly ~
  • R
    Rorysky
    回复7#望穿秋裤
    numba 就可以gpu 加速呀 iOS fly ~
  • F
    FQX
    回复7#望穿秋裤
    计算能用tf写的话就能搬上去,不过如果不是矩阵的向量计算的话应该差不了太多吧。 iOS fly ~
  • p
    pepsin
    回复18#望穿秋裤
    有循环有判断那就有得商榷了
    iOS fly ~
  • g
    guangjian
    关注gpu
  • F
    FQX
    回复24#望穿秋裤
    tf 是 tensorflow iOS fly ~
  • l
    lotus163
    要用cuda吧?
  • j
    jqustc
    请原谅我有点想笑。。。好好用tf吧
  • p
    pepsin
    回复25#望穿秋裤
    GPU 的计算模型跟 CPU 是不同的。

    如果你的计算过程还有上下文依赖,那还得费更多功夫。 iOS fly ~
  • 四维
    楼主方向搞错了

    Python用gpu大多数是tensorflow之类的库在gpu跑人工智能

    其他的你看看py有哪些数据处理的库做了gpu优化。做了优化的就能在gpu跑。

    否则请移步vc写cuda代码 人生如梦
  • 四维
    gpu计算只适合从头到尾一条线计算,没有分叉的那种。 人生如梦
  • l
    lishuanzhu
    回复1#望穿秋裤


    一般的计算,不涉及到矩阵的,GPU反而没有优势,GPU的主频普遍比较低。要是真想用GPU加速,王道就是自己掉CUDA API写C, 用pybind调用C去加速。CUDNN跟你场景没有关系,是针对神经网络加速用的。
    这里面还涉及到数据从内存拷贝到显存,计算完之后,再返回给CPU。。。 计算量小就别折腾了
  • l
    lishuanzhu
    回复25#望穿秋裤


    GPU貌似没有逻辑电路... 适合一次输入数据,一个计算op,一个输出的串行计算,比如屏幕的图像显示。。。
  • l
    lishuanzhu
    回复33#望穿秋裤


    tensorflow是深度学习用的。。。这个框架的算子估计你的场景大部分是没有的。。。
  • i
    ifconfig
    回复18#望穿秋裤
    GPU上跑,最主要的是你的计算不许能并行,同一个公式对不同的数据跑几万次这种,计算之间还不能有先后关联。然后公式太简单了效率也不高,时间都花在准备数据上了 师姐不要这样
  • p
    ppp1234
    mark机器学习cudaHiPDA·NG
  • b
    bill30000
    看看cuda api