MJay

제 2회 정보과학회 DB소사이어티 겨울학교 후기 본문

Cloud Computing/Machine Learning

제 2회 정보과학회 DB소사이어티 겨울학교 후기

MJSon 2017. 2. 27. 00:56


2번째로 주최하는 데이터베이스 소사이어티 학교에 갔다. 작년에는 한양대에서 딥러닝 및 추천기술에 배웠다. 이번 주제도 비슷한 딥러닝과 빅데이터였다. 집이 고대랑 가까워서 금방 도착하였다.


작년과는 다르게 디저트가 매우 고급스러워졌다. 오예스에서 머핀으로 업그레이드 되서 놀랐다.


강의실에 들어가 보니 모든 자리가 꽉 찼다. 1회에서도 인기가 많았는데 이번에도 사람들이 많이 온 걸 보고 잘 왔다고 생각이 들었다. 9시에 포항공대 유환조 교수님께서 스타트를 끓으셨다.
AI와 Machine Learning이 무엇인지에 대한 강의였다. 많고 재밌는 예제를 보면서 쉽게 쉽게 이해할 수 있었다. 그리고 기계 학습의 기초 개념인 Linear Predictor, Loss Minimization, Stochastic Gradient Descent, Features, Neural Networks, Generalization, Validation에 대해 들었다. Machine Learning에 대한 배경지식이 있어서 복습하는 기분으로 재밌게 들었다. 강의에서도 말했듯이 수학적 표시만 빼면 비전공 학생들도 쉽게 이해할 수 있는 좋은 강의였다. 제일 기억 남는 건 슬라이드를 넘기실 때마다 강의실에 있는 사람들의 반응을 살피시는 것이었다. 그리고 내용으로는 SGD였다. Gradient Descent는  step마다 train_data를 읽어야하는 단점이 있는데 그걸 해결해주는게 SGD라고 한다.  기계학습을 쓸 일이 있으면 SGD에 대해 더 공부하고 써볼 예정이다.






점심을 먹고 오후에는 딥러닝에 관한 강의를 들었다. 딥러닝의 대가라고 불리시는 한동대 최희열 교수님이 오셨다. 많이 보신 것 같은데…. 딥 러닝 개념, CNN, Activation Function, RNN, LSTM에 관해 얘기하셨다. 2부에는 SGD, momentum, RMS PROP, Adadelta,
transfer learning, gradient clipping, dropout에 관해 설명하셨다. Introduction에서 AI is getting finally smart라는 구문이 생각나다. 대가라고 느끼신 게 Introduction만으로 40분을 쓰셨다. 각각의 슬라이드마다 관련된 재밌는 내용을 많이 설명해주셨기 때문이다. 개인적으로 2부 때 강의하신 momentum부터는 어려워진 느낌이었다. 배경지식이 없어서 그런 거 같다. 그러지만 이 강의가 제일 기억이 많이 남았다. 많은 걸 배웠기 때문이다. 딥러닝이 탄생하게 된 계기를 지금까지 몰랐다. Kernel Machine부터 Shallow Learning이란 것도 배웠다. 딥러닝은 미국에서는 4, 5년 전부터 유명해졌다고 한다. 알파고 때문에 한국에서 이제서야 열풍이라고 했다. Deep Learning이 왜 좋은지, 왜 옛날에는 안 유명했는지 잘 알 수 있었다.

    


마지막으로 딥러닝 experts 세계 지도를 보여주셨다.
Ng,  Hinton, Lecun, Graves 등등 한 번쯤 들어본 이름이 나왔다. 그리고 논문을 쓸 때 하단 왼쪽에 있는 구글의 Graves가 쓴 논문을 읽어보라고 했다. 남들이 생각해 놓은 건 이미 Graves가 다 써 놓았다고 했다. 나도 논문 쓸 때 저 사람 논문을 다 보고나서 고민해봐야겠다. 시간 가는 줄 모르는 강의였다.





다음 날은 딥 러닝 응용에 관한 강의였다. 아침에는 Computer Vision 강의였다. Object detection, Image Video Captioning에 관해 설명하셨다. 이쪽 분야를 한 번도 접한 적이 없어서 개인적으로는 따라가기 힘들었다. need to fully understand the input image 이 제일 기억 남았다. 지금은 사람보다 image를 잘 인식하지만, 아직도 해결해야 할 과제라고 했다.




그다음으로는 자연어 처리에 관한 강의였다. 강사분은 네이버에서 오셨다. 네이버에 대해 광고를 하시고 시작했다. Text Mining, NER, relationi classification, Sentiment analysis, text comprehension에 대해 강의를 하셨다. 역시 응용이고 배경지식이 없어서 계속 노트북에 메모하면서 따라가느라 진땀을 뺏다. 자연어 처리는 레드 오션이라는 것이다. Deep Learning도 열풍이 금방 끝날 것이라고 오래 못 갈 거라고 하셨다. 반대로 자연어 처리를 공부하면 유학도 쉽게 취업도 쉽게 할 수 있다고 했다. 네이버는 회사에서도 논문도 쓰게 한다고 했다. 네이버에 들어가면 자기 분야에 대해서 더 열정적으로 공부할 수 있고 회사에도 잘 지원해줄 거 같다. 그리고 아무리 좋은 알고리즘이라도 해도 많은 양의 데이터는 못 이긴다고 했다. 매우 공감되는 말이다. 한글도 세종대왕이 너무 잘 만들어서 영어보다 처리하는 게 어렵다고 하셨다. 강사님께서 언급하신 Social Robots, Intelligent Speaker도 한번 찾아볼 생각이다. 






점심을 먹고 빅데이터 시각화에 관한 강의를 했다. 통계학과랑 관련된 강의 같았다. 시각화 기초, 정보 시각화 기법에 대해 알려주셨다. 이 matplotlib 과 seaborn을 배웠다. matplotlib이 나와서 반가웠다. 써본 경험이 있기 때문이다. 이어서 빅데이터 시각화 분석론, 고차원 데이터의 2d 임베딩 기법, 시각화 분석 시스템, 이를 위한 Tool인 pandas, bokeh에 대해 배웠다. Python 시각화 라이브러리는 실습 위주의 내용이라서 좋았다. Indexing, Bar Graph, Highlighting, Style 등 내가 모르는 내용도 많이 알았다. 따로 블로그를 통해 익힐 정도로 pandas에 관심이 많아서 재밌게 들을 수 있었다. 나중에 데이터 시각화를 해야 할 때가 오면 다시 이 슬라이드를 참조해야겠다

전체적으로 딥러닝 응용 빼고는 따라가기 쉬운 강의였다. 이번 특강을 통해 딥러닝, 기계학습에 대해 복습할 수 있는 좋은 계기였다. 아쉬웠던 점은 와이파이가 고려대 학생들만 쓸 수 있어서 모른 내용을 쉬는 시간에 찾아볼 수가 없었다. 또한, 1회 겨울 학교보다는 노트북을 쓸 환경이 더 좋았지만,  책상이 그렇게 넓지는 않아서 그런지 불편하긴 했다. 많은 사람이 듣기 때문에 힘들 수 있지만, 노트북으로 작업할 수 있는 강의실을 빌려보는 것도 괜찮을 거 같다. (앞자리에서 저랑 같은 생각을 하면서 투덜대시는 교수님을 목격했다.)