목록MJ (709)
MJay
ctags 란 어떤 함수의 declaration 부분으로 따라가는 것이다 ctags에 대한 정리 잘 해놓은 블로그 http://bowbowbow.tistory.com/15 ctrl ] 으로 해서 가고 ctrl t 로 해서 원상복귀 가능하다 ctrl c를 하면 주석 처리 ctrl x 를 하면 주석 해제 history 를 한다음에 해당하는 번호 왼쪽 !번호 이렇게 하면 그 command가 실행된다. Shift 3 를 하면 해당 키워드를 검색해준다.
이렇게 하면 9일전에 만든 process , container를 끌 수 있다.
행렬의 크기를 조정할수 있는 옵션이 이렇게 있다. 이걸 활용해서 ./testing_zgesv -N 1000:37000:1000 --ngpu 4 --lapack 이렇게 하면 이런 결과를 얻을수 있다. 이렇게 Thread를 조정할수있다.
출처 - http://rfriend.tistory.com/5 그리고 R을 킨다 Terminal에서도 할수있다. 패키지를 쓰고싶으면 아래와 같이 하면 된다. 설치를 하고 나서 쓰고 싶으면 library(" ")를 하면 된다.
Compute vCPU는 가상 CPU를 뜻하기 때문에 즉 실제 CPU Core는 하나라고 보면 된다. Memory의 단위는 GiB로 Giga Binary Byte로 3.75GB 로 보면된다. 스토리지는 하드 디스크라고 보면 되고 EBS는 Elastic Block Storage로 그냥 영구 블록이라고 생각하면 된다. 전용 EBS 대역폭(Mbps)은 Instance와 EBS 사이의 전송하는 대역폭을 뜻하는 걸로서 빠를수록 네트워킹이 좋다고 생각하면 되겠다. Compute Instance는 C3가 적당해보인다. 메모리 최적화 인스턴스 X1은 적합하지 않다. 비싸서 R4랑 R3을 비교해보면 vCPU랑 Memory는 같다. 차이점은 R3은 SSD를 가지고있다. 굳이 필요없을꺼같고 R3가 더 싸다고 했으니 R4로 ..
Magma를 돌리기 위해서 필요한 Library CUDA Toolkit Download | NVIDIA Developer , Intel® Math Kernel Library (Intel® MKL) | Intel® Software, OpenBLAS : An optimized BLAS library 먼저 위 것들을 설치를 하고 경로를 설정해줘야한다 그리고 wget을 통해 magma-2.2.0을 받아서 압축을 푼다음에 make.inc를 손보면 된다. 이렇게 make.inc를 손 본 다음에 make를 해주면 된다. test를 위해 examples 폴더나 testing 폴더에 가서 여러가지 magma의 내장 함수를 해본다. Magma를 돌리기 위해서 필요한 Library CUDA Toolkit Download |..
sudo nvidia-docker run -it --name magma_docker7 -v /usr/local/magma/:/usr/local/magma/ -v /usr/local/cuda-8.0/:/usr/local/cuda-8.0/ -v /home/sonmj/magma-2.2.0/:/magma_folder -v /opt/intel/:/opt/intel/ kmubigdata/ubuntu-tensorflow /bin/bash cuda가 설치되어야하므로 kmubigdata/ubuntu-tensorflow를 썻다. 이렇게 하면 근데 Docker에서 컴파일은 안된다. 이유는 모르겠다. sudo nvidia-docker run -it --name magma_docker7 -v /usr/local/magma/:/..
* PThreads Parallel Threads를 뜻하는거 같다. * OPenMP Open Multi-Processing * GNU GNU 프로젝트는 유닉스(Unix™) 및 리눅스처럼 유닉스와 유사한 운영체제에서 사용할 수 있는 일련의 자유 소프트웨어 도구를 개발해 왔습니다. 이러한 도구를 이용해 사용자는 파일을 복사하거나 지우는 아주 일상적인 작업부터, 프로그램 작성과 컴파일, 여러가지 종류의 문서 편집에 이르기까지 다양한 작업을 할 수 있습니다. 컴파일 해주는 도구라고 생각하면 된다. Thread는 코어 개수라고 보면된다. 즉 GPU기기에서는 코어가 48개라서 Thread도 48개라고 생각하면 될꺼같다. xstr – 공유 캐릭터 라인을 실현하기 위해서(때문에) C 언어 프로그램으로부터 캐릭터 라인을..
GEneral Matrix to Matrix Multiplication multiplies two input matrices together to get an output one C := alpha*op(A)*op(B) + beta*C, scalar-matrix-matirx product op(X) is one of op(X) = X, or op(X) = XT, or op(X) = XH, alpha and beta are scalars, A, B and C are matrices: op(A) is an m-by-k matrix, op(B) is a k-by-n matrix, C is an m-by-n matrix.