tensorflow에서 GPU안쓰기

CUDA버전 tensorflow를 실행하면 GPU가 자동으로 활성화된다

학습할 때에는 GPU를 이용하면 훨씬 빠르지만, GPU 단점이 초기 설정하는데 시간이 오래걸린다

테스트할때에는 계산량이 비교적 적어서 GPU를 끄는 편이 더 빠르다

config = tf.ConfigProto(
        device_count = {'GPU': 0}
    )
sess = tf.Session(config=config)

위 코드를 넣어주면 GPU를 비활성화 한다

Pascal GPU 에서 Deep MNIST for Experts 예제 학습률이 안나오는 이슈

MNIST 데이터셋으로 Full Connected Network로 학습하면 잘 된다

그런데 Convolution Network으로 학습하면 학습이 안되는 문제점을 발견했다

그런데, cpu기반으로 학습하면 잘 된다

고생하다가 관련 자료를 겨우 찾았다

해결책은 cudnn버전을 최신(나는 5.1로 했음)으로 업그레이드 해준다

이 문제점은GTX1060 같은 Pascal GPU에서 나온다고 한다.

참고자료 : http://stackoverflow.com/questions/38036837/extremly-low-accuracy-in-deep-mnist-for-experts-using-pascal-gpu

ubuntu 14.04 에 nvidia gtx 1060 기반 cuda 7.5설치

아직 cuda 8.0이 정식 버전이 아니라서 불안해서 7.5 버전을 깔기로 결정

근데 cuda 7.5는 ubuntu 14.04 / ubuntu 15.04 만 지원 ㅠ_ㅠ

그래서 ubuntu 14.04에 cuda 7.5를 깔았더니 cuda 7.5에 포함된 nvidia graphic driver 버전이 낮아서(352.39) gtx 1060을 인식하지 못함

그래서 따로 nvidia graphic driver를 깔아줌

$ sudo add-apt-repository ppa:graphics-drivers/ppa

$ sudo apt update

위 명령 입력후에 Software Update 에서 Additional Update탭으로 이동하면 최신 버전을 선택할 수 있다(난 367.44 선택함)

리붓하면 gtx 1060이 인식되는 드라이버가 설치됨

그 이후에 cuda 7.5를 설치를 진행하는데, driver 랑 openGL 은 설치하지 말도록 한다

참고자료 : http://tipsonubuntu.com/2016/08/24/nvidia-367-44-support-titan-x-pascal-gtx-1060/

ps. 다음번엔 그냥 cuda 8.0 으로 가야겠다 ㅠ_ㅠ