목록Cloud Computing (132)
MJay
MKL에서 Deep Neural Networks 위주의 Library도 있다. MKL를 깔아서 컴파일을 gcc로 할수있는건가? http://registrationcenter-download.intel.com/akdlm/irc_nas/tec/11544/l_mkl_2017.3.196.tgz cpio가 없다고 한다. apt-get install cpio하니 완료 source /opt/intel/bin/compilervars.sh intel64 여기까지 하고 이렇게 설정을 했지만 이런 오류가 뜬다 MKL 아키텍쳐과 intel64 랑 ia-32가 있다 GPU기기는 무엇인지 찾아봣다. cat /proc/cpuinfo 하면 나온다 성공했다. 정답은 컴파일 할때 gcc -DMKL_ILP64 -fopenmp -m64 -..
일단 DeepSpotCloud에 영향을 주지않아서 다행이다 t2, m4는 hyperthreading을 지원안하고 리얼이다. 그런것도 생각해서 성능을 비교해봐야겠다 자동화 위주로 해야겠다. 일단 t2.large로 한다음에 Free Eligible한 Ubuntu 16.04에서 실행했다. Public AMI라서 key pair을 import했기때문에 ssh ubuntu@ec2-54-245-12-148.us-west-2.compute.amazonaws.com 이렇게만 하지면 들어가진다 일단 랜선은 뽑고 KMU(5G)로 해야 들어가진다. 컴공에서는 port 22번을 닫아놔서 잘 안된다. 일단 뭐부터 해야할지 모르겠으니 Magma부터 깔아보자 링크 http://icl.cs.utk.edu/projectsfiles/m..
이렇게 하면 9일전에 만든 process , container를 끌 수 있다.
행렬의 크기를 조정할수 있는 옵션이 이렇게 있다. 이걸 활용해서 ./testing_zgesv -N 1000:37000:1000 --ngpu 4 --lapack 이렇게 하면 이런 결과를 얻을수 있다. 이렇게 Thread를 조정할수있다.
Compute vCPU는 가상 CPU를 뜻하기 때문에 즉 실제 CPU Core는 하나라고 보면 된다. Memory의 단위는 GiB로 Giga Binary Byte로 3.75GB 로 보면된다. 스토리지는 하드 디스크라고 보면 되고 EBS는 Elastic Block Storage로 그냥 영구 블록이라고 생각하면 된다. 전용 EBS 대역폭(Mbps)은 Instance와 EBS 사이의 전송하는 대역폭을 뜻하는 걸로서 빠를수록 네트워킹이 좋다고 생각하면 되겠다. Compute Instance는 C3가 적당해보인다. 메모리 최적화 인스턴스 X1은 적합하지 않다. 비싸서 R4랑 R3을 비교해보면 vCPU랑 Memory는 같다. 차이점은 R3은 SSD를 가지고있다. 굳이 필요없을꺼같고 R3가 더 싸다고 했으니 R4로 ..
Magma를 돌리기 위해서 필요한 Library CUDA Toolkit Download | NVIDIA Developer , Intel® Math Kernel Library (Intel® MKL) | Intel® Software, OpenBLAS : An optimized BLAS library 먼저 위 것들을 설치를 하고 경로를 설정해줘야한다 그리고 wget을 통해 magma-2.2.0을 받아서 압축을 푼다음에 make.inc를 손보면 된다. 이렇게 make.inc를 손 본 다음에 make를 해주면 된다. test를 위해 examples 폴더나 testing 폴더에 가서 여러가지 magma의 내장 함수를 해본다. Magma를 돌리기 위해서 필요한 Library CUDA Toolkit Download |..
sudo nvidia-docker run -it --name magma_docker7 -v /usr/local/magma/:/usr/local/magma/ -v /usr/local/cuda-8.0/:/usr/local/cuda-8.0/ -v /home/sonmj/magma-2.2.0/:/magma_folder -v /opt/intel/:/opt/intel/ kmubigdata/ubuntu-tensorflow /bin/bash cuda가 설치되어야하므로 kmubigdata/ubuntu-tensorflow를 썻다. 이렇게 하면 근데 Docker에서 컴파일은 안된다. 이유는 모르겠다. sudo nvidia-docker run -it --name magma_docker7 -v /usr/local/magma/:/..
* PThreads Parallel Threads를 뜻하는거 같다. * OPenMP Open Multi-Processing * GNU GNU 프로젝트는 유닉스(Unix™) 및 리눅스처럼 유닉스와 유사한 운영체제에서 사용할 수 있는 일련의 자유 소프트웨어 도구를 개발해 왔습니다. 이러한 도구를 이용해 사용자는 파일을 복사하거나 지우는 아주 일상적인 작업부터, 프로그램 작성과 컴파일, 여러가지 종류의 문서 편집에 이르기까지 다양한 작업을 할 수 있습니다. 컴파일 해주는 도구라고 생각하면 된다. Thread는 코어 개수라고 보면된다. 즉 GPU기기에서는 코어가 48개라서 Thread도 48개라고 생각하면 될꺼같다. xstr – 공유 캐릭터 라인을 실현하기 위해서(때문에) C 언어 프로그램으로부터 캐릭터 라인을..
GEneral Matrix to Matrix Multiplication multiplies two input matrices together to get an output one C := alpha*op(A)*op(B) + beta*C, scalar-matrix-matirx product op(X) is one of op(X) = X, or op(X) = XT, or op(X) = XH, alpha and beta are scalars, A, B and C are matrices: op(A) is an m-by-k matrix, op(B) is a k-by-n matrix, C is an m-by-n matrix.