keras如何指定运行时显卡及限制GPU用量,
keras如何指定运行时显卡及限制GPU用量,
目录
- keras指定运行时显卡及限制GPU用量
- 一、指定显卡
- 二、限制GPU用量
- 1、设置使用GPU的百分比
- 2、GPU按需使用
- 三、指定GPU并且限制GPU用量
- 总结
keras指定运行时显卡及限制GPU用量
keras在使用GPU的时候有个特点,就是默认全部占满显存。
这样如果有多个模型都需要使用GPU跑的话,那么限制是很大的,而且对于GPU也是一种浪费。
因此在使用keras时需要有意识的设置运行时使用那块显卡,需要使用多少容量。
这方面的设置一般有三种情况:
- 1. 指定显卡
- 2. 限制GPU用量
- 3. 即指定显卡又限制GPU用量
查看GPU使用情况语句(linux)
# 1秒钟刷新一次 watch -n 1 nvidia-smi
一、指定显卡
import os os.environ["CUDA_VISIBLE_DEVICES"] = "2"
这里指定了使用编号为2的GPU,大家可以根据需要和实际情况来指定使用的GPU
二、限制GPU用量
1、设置使用GPU的百分比
import tensorflow as tf import keras.backend.tensorflow_backend as KTF #进行配置,使用30%的GPU config = tf.ConfigProto() config.gpu_options.per_process_gpu_memory_fraction = 0.3 session = tf.Session(config=config) # 设置session KTF.set_session(session )
需要注意的是,虽然代码或配置层面设置了对显存占用百分比阈值,但在实际运行中如果达到了这个阈值,程序有需要的话还是会突破这个阈值。
换而言之如果跑在一个大数据集上还是会用到更多的显存。
以上的显存限制仅仅为了在跑小数据集时避免对显存的浪费而已。
2、GPU按需使用
import tensorflow as tf import keras.backend.tensorflow_backend as KTF config = tf.ConfigProto() config.gpu_options.allow_growth=True #不全部占满显存, 按需分配 session = tf.Session(config=config) # 设置session KTF.set_session(sess)
三、指定GPU并且限制GPU用量
这个比较简单,就是讲上面两种情况连上即可。。。
import os import tensorflow as tf import keras.backend.tensorflow_backend as KTF # 指定第一块GPU可用 os.environ["CUDA_VISIBLE_DEVICES"] = "0" config = tf.ConfigProto() config.gpu_options.allow_growth=True #不全部占满显存, 按需分配 sess = tf.Session(config=config) KTF.set_session(sess)
总结
以上为个人经验,希望能给大家一个参考,也希望大家多多支持3672js教程。
您可能感兴趣的文章:- keras多显卡训练方式
- TensorFlow和keras中GPU使用的设置操作
- 解决Keras使用GPU资源耗尽的问题
- Keras - GPU ID 和显存占用设定步骤
- keras实现多GPU或指定GPU的使用介绍
- keras 多gpu并行运行案例
相关内容
- Python使用keras和tensorflow遇到的问题及解决,
- 如何在 Python 中执行 MySQL 结果限制和分页查询,LEFTJO
- 如何在 Python 中执行 MySQL 结果限制和分页查询,LEFTJO
- 如何使用 GTX750 或 1050 显卡安装 CUDA11+,然而CUDA的版本
- Tensorflow训练模型默认占满所有GPU的解决方案,
- tensorflow之如何使用GPU而不是CPU问题,
- 一文学会利用python解决文章付费限制问题,
- GPU状态监测 nvidia-smi 命令的用法详解,
- TensorFlow如何指定GPU训练模型,
- Mac OSX (EI Capitan)搭建Caffe环境并配置python接口,,Caffe是一
评论关闭