목록MJ (709)
MJay
Edit OpenCL in GPU server Cuda 랑 Nvidia 가 필요하다 GPU 설치OpenCLGPU Server에 깔려있는 Nvidia Vendor에 관한 정보알아보기 apt-get install clinfo 첨부터 보면 Platform이 나온다. 위에 내용이 있지만 복습할 내용만 다시 정리해 봅니다. OpenCL 프레임워크 OpenCL 애플리케이션을 개발하고 실행하기 위한 소프트웨어 시스템 플랫폼 레이어 + 런타임 + 컴파일러 로 구성되있음 호스트(host) + 하나 이상의 Device(GPU) Vendor AMD OpenCL, NVIDIA OpenCL , Intel OpenCL 밴더라고 합니다. Global Memory, Constant Memory 디바이스마다 하나씩 읽어서, 해당 디바..
Edit GPU 서버에 Nvidia Driver , CUDA, CUDNN , Docker , Nvidia-Docker를 다시 깔기 학교 정전때문에 Docker도 실행이 안되고 nvidia-smi도 안되길래 다시 깔아봤다. sudo apt update 일단 rabbitmq이랑 관련된 pakcage가 오류가 있다고 한다. ()NO_PUBKEY 6b~~~) Public key를 추가하면 된다. PUBKEY에 해당하는 public key를 추가해준다. sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 6B73A36E6026DFCA 그럼 해결된다. 그 다음은 R-Studio 문제이다. R-Studio랑 관련된 The repository 가 없다고 한다...
행렬에서의 BFS는 CPU에 맞게 잘라주는 것이다. 결론 행렬에서의 DFS는 메모리가 부족할 경우 잘라주는 것이다.
먼저 Script로 MKL 설치 그리고 먼저 Nvidia Graphics Card를 깔아야한다. g2.instance는 GRID 520 카드라서 이에 맞는 그래픽 카드를 설치한다. 그 전에 dpkg 사이즈가 커서 storage의 사이즈를 20GB 까지 늘린다. Nvidia Graphics Card 설치하기 wget https://developer.nvidia.com/compute/cuda/8.0/Prod2/local_installers/cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64-deb $ wget http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1404/x86_64/cuda-repo-ubuntu1..
여러개의 Instance에서 시작해야하니 Script를 만들었다. Python 3.6 이렇게 하면 다른 Instance 타입에서 할수 있을꺼같다. 실행하고 /tmp/rc.local.log 의 결과 문제는 ubuntu에서 echo $MKLROOT를 하면 보이지 않는다. 이상하다 /etc/profile을 하면 전역 설정이라서 될줄알았는데 안된다.
[OpenBLAS : An optimized BLAS library](http://www.openblas.net/) OpenBlas Make 하는법 make 하고 make prefix=./ install 한다 benchmark에 있는 goto 실행하려면 OpenBlas에서 make NO_LAPACK = 0 -j48 로 하면 됨 NO_LAPACK=0 의미는 lapack을 안쓴다는 거 같다. 그리고 make PREFIX=./ install 하면 .dgesv.goto를 실행할수있다.
MKL에서 Deep Neural Networks 위주의 Library도 있다. MKL를 깔아서 컴파일을 gcc로 할수있는건가? http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11544/l_mkl_2017.3.196.tgz cpio가 없다고 한다. apt-get install cpio하니 완료 source /opt/intel/bin/compilervars.sh intel64 여기까지 하고 이렇게 설정을 했지만 이런 오류가 뜬다 MKL 아키텍쳐과 intel64 랑 ia-32가 있다 GPU기기는 무엇인지 찾아봣다. cat /proc/cpuinfo 하면 나온다 성공했다. 정답은 컴파일 할때 gcc -DMKL_ILP64 -fopenmp -m64 -..
일단 DeepSpotCloud에 영향을 주지않아서 다행이다 t2, m4는 hyperthreading을 지원안하고 리얼이다. 그런것도 생각해서 성능을 비교해봐야겠다 자동화 위주로 해야겠다. 일단 t2.large로 한다음에 Free Eligible한 Ubuntu 16.04에서 실행했다. Public AMI라서 key pair을 import했기때문에 ssh ubuntu@ec2-54-245-12-148.us-west-2.compute.amazonaws.com 이렇게만 하지면 들어가진다 일단 랜선은 뽑고 KMU(5G)로 해야 들어가진다. 컴공에서는 port 22번을 닫아놔서 잘 안된다. 일단 뭐부터 해야할지 모르겠으니 Magma부터 깔아보자 링크 http://icl.cs.utk.edu/projectsfiles/m..