MJay
spark-ec2 i3 instance iostat 알아보기 & NVMe 비교해보기 본문
spark-ec2 i3 instance iostat 알아보기 & NVMe 비교해보기
iostat명령은 CPU 및 디스크 입출력 통계에 대한 기본정보를 보여줍니다.
apt-get install sysstat을 통해 설치를 해줘야합니다.
맨 첫째줄에 시스템 커널 버전, 호스트명, 날짜가 나오고,
두번째줄에는 마지막 재부팅 후 시스템 평균 CPU 활용률을 보여줍니다.
%user : 사용자가 사용중인 프로세서가 사용한 시간(백분율)
%nice : nice(작업우선순위)정책에 의해 우선순위가 바뀐 프로세서가 사용한 시간
%system : 시스템이 사용한 시간
%iowait : 입출력 대기 시간
%steal : Stael CPU 사용 시간
%idle : 유휴상태 시간
마지막줄에는 각 디스크의 장치 활용량 리포트가 출력됩니다.
Device : 장치명
TPS : 초당 입출력 작업 갯수
Blk_read/s : 초당 읽어들인 512바이트 블록수
Blk_wrtn/s : 초당 쓰여진 512바이트 블록수
Blk_read : 지금까지 읽어들인 512바이트 블록수
Blk_wrtn : 지금까지 쓰여진 512바이트 블록수
rrqm/s : 디바이스 큐에 대기중인 초당 읽기 요청의 건수
wrqm/s : 디바이스 큐에 대기중인 초당 쓰기 요청의 건수
r/s : 디바이스에 요청한 초당 읽기 요청의 건수
w/s : 디바이스에 요청한 초당 쓰기 요청의 건수
rsec/s : 디바이스에서 초당 읽어들인 섹터의 갯수
wsec/s : 디바이스에서 초당 기록한 섹터의 갯수
avgrq-sz : 디바이스에 요청한 초당 평균 데이터의 크기
avgqu-sz : 디바이스에 요청한 초당 평균 큐 길이
await : 디바이스에서 처리되기 위해서 요청된 I/O 평균 시간(밀리초, 1/1000초). 큐에서 소요된 시간과 처리된 시간이 합쳐져 출력됨.
svctm : 디바이스에서 처리한 I/O 평균 시간 (밀리초, 1/1000초)
%util : 디바이스에서 요청한 I/O 작업을 수행하기 위해 사용한 CPU 시간 비율. 이 값이 100%에 가까워지면 디바이스가 한계에 도달했다고 보면 됨.
왼쪽은 master 오른쪽 slave node입니다.
slave 의 /mnt 용량이 올라갔다가 줄어드는 걸 알수있고
nvme0n1 가 쓰이는 걸 확인할수 있습니다.
쓰이는 듯
i3.large 4 nodes without NVMe
NVMe를 mount하지 않았기 때문에 쓰이지 않습니다.
정리
i3 large 4nodes with NVMe
왼쪽은 master 오른쪽 slave node입니다.
slave 의 /mnt 용량이 올라갔다가 줄어드는 걸 알수있고
nvme0n1 가 쓰이는 걸 확인할수 있습니다.
i3.large 4 nodes without NVMe
NVMe를 mount하지 않았기 때문에 쓰이지 않습니다.
i3.large 4 nodes - comparsion
왼쪽이 NVMe 착용 오른쪽이 NVMe 착용안함
'Cloud Computing > Spark' 카테고리의 다른 글
Scala 공부해보기 - Day 1 (0) | 2017.12.05 |
---|---|
i3.instance 의 /dev/nvme0n1에 mount하기 (0) | 2017.11.30 |
r4 Instance Scalability 조사 (0) | 2017.10.02 |
Spark-EC2 Too large frame (0) | 2017.10.02 |
Spark에서 왜 결과값이 16*16이 아니라 4*4 인지 Code를 통해 설명 (0) | 2017.10.02 |