강의 후기 – 2019년 1월

안녕하세요. 대표님

아까 질문했었던 1월 데이터 사이언스 메인강의를 들었던 통계학과 학부생입니다.

일단 목 아프신데 많은 지식전달 해주셔서 너무 감사하다는 말씀 드리고 싶어요. 대표님의 재능기부는 저 처럼 데이터 사이언티스트로 자라나는 새싹들에게 정말 큰 한 줄기 빛이됩니다^^. 물론 앞을 보면 너무 깜깜하긴 합니다만  앞으로 어떤 방향으로 나아갈지 방향이 좀 잡힌 거 같아요. 수학의 중요성을 늘 강조하셨던 것 처럼 수업들으면서 수학공부 많이하려고 노력했습니다.

수업 중간중간에 말씀하시던거 (ex. ‘이러한 증명이 있습니다. 찾아보세요’ 대표적으로 svm duality(kkt조건) 등) 적어서 집와서 증명찾아보고 이전에 학교에서 배운 선형대수학, 선형계획법, convex optimisation, 통계계산 등등 배운지식을  정말 방학 때 학기중에 느꼈었던 수학적 희열(성취감)을 느낄 수 있어서 너무 좋았습니다. (그저 학부생의 자기만족입니다 이해해 주시길)

제가 학기중에 사실 svm, random forest 등을 쓸 때 어떨 때 쓰지라고 물었을 때 사실 ‘왜?’라는 질문을 많이 던져보지 않았던 거 같아요. 데이터에 기반하지 않고 제대로 된 전처리 없이 시험에 나왔으니까 책에 예제에 그렇게 있으니까라고 넘어갔던 부분이 많았거든요. 저도 대표적으로 Neural net hidden layer 갯수 / svm hyper parameter 배경지식없이 그냥 가져다 썼었습니다.

데이터 전처리도 사실 비슷한데 NA 바꾸는데 만 초점을 맞췄었는데 첫번째 강의에서 2stage least square 듣고 그냥 NA 바꾸는 것만이 아닌  이런게 전처리구나 적지않은 충격은 아직까지 머리에서 맴돌고 있습니다.(절대 까먹지 않을 것 같아요)

이제는 수업을 듣고나서 이 걸 왜쓰고 언제 적용할 수 있지에 대한 질문을 스스로 질문을 계속해보게 되는 연습을 계속하고 있습니다. 특히 FA, Neural net에 제가 가지고 있던 기존의 관점이 틀렸다라는 것을 알게 되었습니다. ‘FA가 오토인코터 회귀분석 버전이며 FA를 여러번해 latent variables 찾아나가는 과정이 뉴럴넷 그 과정은 블랙박스가 아닌 logistic regression의 tree 결합을 gradient boosting으로 업데이트 한 방식’이라는  저에겐 매우 큰 깨우침 얻고 갑니다.

대표적으로 아래 그림을 제가 이해하고 특히 뿌듯해 했는데 ETH에서 다변량통계자료로 쓰는 건데 4강 (앙상블) 듣기전에 이 자료로 예습을 하고 갔었습니다. 처음에 볼 때 왼쪽에 왜 저런 들쭉날쭉 한 그래프가 왜 있는지  이해가 안됬습니다.

그런데 수업듣고 복습하면서 언제 Tree를 적용해야 힘을 발휘할 수 있는지 그림 하나로 요약이 되는 것을 느낌을 받았습니다. 수업시간에 말씀하셨던 약물이 언제효과가 있는지에 대한 예제가 머리속을 탁 치고  아 ‘이 얘기를 하셨던거구나’ 라는 게 확 와닿았습니다.

그리고 아까 제가 오토인코더와 FA 언급하면서 말씀드린 책인데 제목은 ‘기계학습 (오일석 지음)’입니다. 강의듣고 해당부분을 같이 흐름이해를 하기 위한 책으로 도서관에서 빌려온 책입니다. 다 읽지는 않았지만 여기서 읽다보니까 강의를 들으면서 대표님이 강조하셨던 포인트와 전개흐름이 비슷한거 같아요.
대표적으로 오토인코더 들어가기전 공간변환의 이해부터 시작해서 PCA, 인자분석 이렇게 이어지는 부분인데 FA 강의에서 말씀하셨던 것처럼 시작은 합성함수하고 그 것의 역변환부터 시작합니다. 제 실력이 부족해서 오토인코더가 왜 FA에서 출발하는지 익숙하지 않았습니다만 강의복습과 이 책의 도움으로 머릿속에서 퍼즐이 맞춰진 것 같습니다.

* 중요한 건 강의를 들어야지 이러한 포인트가 눈에 보이고 학습방향이 잡히는 거지 강의를 안들은 사람이 이러한 포인트에 대해서 알 수 있을지는 의문입니다.

 

마지막으로 저 책에 1장에 있던 부분인데요. 아까 대표님이 Reinforcement learning 알파고얘기 하시면서 말씀하신 것과 일맥상통해서 적어봅니다.

‘ 인공지능이 사람을 지배할지도 모른다는 두려움이 매스컴을 통해 여과없이 전파되고 있다. 이러한 사회적 현상은 알파고가 이세돌을 이긴 이후에 더욱 두드러진다. 하지만 이러한 두려움은 쓸데없는 과장에 불과하다. …. 오목을 두는 프로그램이나 알파고는 복잡도만 다를 뿐 기본원리는 같다. ….결국,  기계학습은 온통 수학과 알고리즘일 뿐이다.’

 

내공이 부족한 학부생이 글 솜씨가 없어서 두서없이 적었습니다.
제 실력으로 전달해 주신걸 완벽히 이해하지 못했지만 이해하는 날이 오길 바라며 열심히 공부하고 있겠습니다.
긴글 읽어주셔서 감사합니다.


신진식님 강의 후기 입니다

2019-06-19

0 responses on "강의 후기 - 2019년 1월"

Leave a Message

X