네이버부스트캠프 65

[학습 일지 / day 15] 갈증

오늘은 밖에 나갈 일이 많은 하루였다. 아침에 머리 자르러 외출하고 저녁에는 친구와의 약속으로 밖에 나갔다왔다. 점심 때에 돌아와서 Data vizualization 수업을 들었는데 집중이 잘 안됐다. diffusion 모델을 공부하고 싶어서 스터디를 모집했다 보니 거기에 정신이 팔리기도 했고 visualization에서는 새롭게 느껴지는 내용이 없어서 조금 따분했기 때문이기도 했다. 사실 나는 이것 저것 많이 시도해보고 싶고 또 얘기를 많이 나눠보고 싶은데 나만의 생각이었나 싶은 느낌이 있다. 조금 지쳤을까나 근데 뭐 당장에 더 일을 벌이기는 힘들 것 같으니까 그냥 그동안 노력한 자신에게 고생했다고 해주고 싶다. 이제는 벌인 일들 수습하다가 나중에 취업하고 프로젝트에 집중하면 될 것 같다. 아직은 해야..

[학습 일지 / day 14] 적응

이제 몸과 마음이 현재 생활에 많이 적응한 것 같다. 컨디션도 살아나고 의욕도 살아나면서 더 오래 집중할 수 있게 되었고 더 많은 걸 해보고 싶게 되었다. 이전에는 조금 억지로라도 하는 느낌이었지 지금은 바라는 게 많지 않달까 뭔가를 하는 데 있어서 조건이 별로 붙지 않는 것 같다. 그러니까 만약 취업을 위해서 부스트 캠프를 한다라고 하면 사실 맞는 말이긴 하지만 그보다는 그냥 이게 재밌어서 한달까 여기에 집중하는 순간이 좋고 여기에서 관심사가 비슷한 사람들과 만나는 게 좋다. 약간 버거운데라는 생각이 들 정도의 강도가 나한테는 맞는 것도 같다. 하나하나 알아가고 하나하나 채워가는 게 재밌다. 맥주 한 캔을 기울이며 글을 쓰다 보니 감정적이 된 것도 같다;;; 그러니까 이만 줄이고 오늘 배운 내용을 정리..

[학습 일지 / day 13] 루틴과 감사함

최근에 가장 잘했다 싶은 것은 바로 아침 루틴을 만들고 또 오늘까지 2일 차 실행했다는 것이다. 아침에 일어나서 가벼운 요가를 하고 커피를 사온 후 자리에 앉아서 영어 쉐도잉을 한 뒤 10시 땡하면 코딩 테스트를 푸는 그런 루틴을 말이다. 또 오늘은 새벽에 일찍 일어나서 어제 다 못 읽었던 논문을 마저 다 읽었다. 오늘 다른 팀원이 발표한 논문도 점심시간 이후에 시간을 내서 다 읽었다. 와 이걸 했구나 라는 생각이 들 정도로 뿌듯하다. 그런데 정리하고 또 다 읽긴 했어도 그 내용이 머리에 박히지는 않아서 시간을 두고 또 보고 또 봐야 할 듯하다. NLP 논문을 대강 다 읽은 이후에는 그것들의 특징점과 차이점을 위주로 정리해놓을까 싶기도 하다. 오늘은 사실 논문 읽고 또 코딩 테스트 온라인 풀이 시간을 준..

[학습 일지 / day 12] 아쉽게도

아쉽게도 논문 정리를 마무리 못 지었다. 곳곳에 등장하는 개념들을 다시금 찾아보고 또 수식에 대한 정보들을 찾아보고 이해하는 데에 생각보다 많은 시간이 들었다. 이렇게까지 해야 하나? 라는 생각이 가끔 들지만 그래도 이런 시간들이 쌓이다보면 나중에는 시간도 덜 들게 될 것이고 이해하는 데도 더 수월해질 것이라 믿고 있다. 당장에 대회에 나가야겠다는 욕심은 없으니까 이번 달까지는 이렇게 학습 위주로 일과를 짜도 괜찮지 않을까 싶다. 오늘은 CNN에 대한 강의를 수강했는데 어제와 마찬가지로 조금 자세하게 마스터 님이 말씀하신 내용을 옮겨 적었다. 이런 게 옛날에 보았던 서울대 공부법인가!? 싶었는데 흐름을 차근차근 따라가며 개념을 이해할 수 있어서 좋은 것 같다. 오늘도 그냥 다 옮겨볼까 하다가 이거 다 옮..

[학습 일지 / day 11] 휴일인데

오늘은 휴일이지만 이번 주말에 놀러가는 관계로 약속에서 돌아온 5시 이후로 지금까지 수강 및 학습을 했다. 딥러닝 기본과 최적화에 대한 강의를 듣고 실습을 진행하였고 마스터님께서 말로 풀어 설명하는 것을 놓치지 않기 위해 집중하였다. 여기에서는 메모장에 옮겨 놓은 것을 그대로 붙여 넣겠다. Key Components of Deep Learning The data that the model can learn from The model how to transform the data The loss function that quantifies the badness of the model The algorithm to adjust the parameters to minimize the loss loss func..

[학습 일지 / day 10] 그래도 간다

오늘은 새롭게 학습한 내용이 없다. 오전에는 코딩테스트 문제를 풀고 자소서를 하나 썼으며 오후에는 자소서 마무리하고 제출한 뒤 랜덤 피어섹션 (다른 팀 팀원들과의 만남), 피어섹션, 그리고 마스터 클래스에 참여하였다. 랜덤 피어섹션 때는 저번 주에 처음 겪었던 어색함을 잠깐 느꼈다가 이내 각자 자기 소개하고 자신의 목표나 관심 분야 등에 대해 얘기해보며 나름 즐거운 시간을 보냈다. 피어섹션 때에는 오늘 만나기로 약속했던 터라 조금 더 화기애애한 분위기 속에서 대화를 나누었다. 좋았던 것은 아쉬움이 남았던 부분들에 대해서 서로 적극적으로 얘기하여 앞으로의 개선 방향에 대해 같이 고민해본 점이 좋았다. 발전적인 활동이나 논의를 앞으로도 이어나갈 수 있을 것 같다. 마스터 클래스 때에는 최성철 마스터님께서 현..

[학습 일지 / day 9] 어쩌다 보니 벌써 12시

와 정말로 이게 이렇게까지 길어질 줄 몰랐다. 사실 주말에 하려고 했던 건데 어제까지 스피디하게 강의랑 과제를 끝내고 나니 오후 시간이 되니까 무료해져서 손을 댄게 화근이었다. (사실 뿌듯함) 아무튼 그래서 word2vec과 seq2seq 관련 논문들의 정리를 끝냈다. 그 개념이나 구조를 자세히 설명한 것은 아니고 번역을 조금 열심히 해서 논문 읽는 사람이 편하게 읽기 만든 그런 느낌? 너무 또 개념을 딥하게 들어가면 자료도 만들어야 하고 힘들 거 같단 말이지 이것도 쉽지는 않았지만 이게 또 잘 맞았던 것 같다. 오늘 수강한 강의는 병렬 처리에 대한 부분인데 모델 병렬 처리나 데이터 병렬 처리 등에 대해 배웠다. 사실 컴퓨팅 리소스가 바탕이 되야 하니까 나중에 필요하면 더 찾아보겠단 마음으로 가볍게 들었..

[학습 일지 / day 8] 배움은 끝나지 않았다!

오늘의 목표치는 많지 않았다. 강의 듣고 과제 마무리하고 논문 읽는 정도? 모두 코어타임(오전 10시 ~ 오후 7시) 내에 끝냈다. 가장 인상적이었던 활동은 피어 섹션 때 진행한 논문 스터디와 멘토링이다. word2vec 논문과 seq2seq를 읽고 발표 준비하신 분들의 발표를 들었는데 빡빡한 일정 와중에서도 열심히 준비해오신 모습들에 많은 감사함을 느꼈다. 나 또한 word2vec 논문을 읽는 것은 처음이었는데 그 안에 담긴 연관 내용들의 개념들이 많아 처음 접한 분들에게는 많이 어려웠을 거란 생각이 들었다. 나중에 본격적인 NLP 세션이 시작된 후에 공부하는 것도 괜찮지 않았을까 싶기도 했다. 내 기준에서 무언가를 진행시킬 때에 발생할 수 있는 위험에 대해 인지하게 되었다. 근데 또 도전적인 학습 활..

[학습 일지 / day 7] 밤이 길어졌다!

연일 2시 가까운 시간까지 작업을 하였다. 아침에 일어날 때는 좀 힘든데 점심 이후로는 어떻게든 하게 되는 것 같다. 늦게까지 작업하게 된 건 모두 우리 부덕이 덕이다... 하지만 오늘은 코드 짤 때 잔 실수를 많이 해서 이렇게 늦은 시간까지 컴퓨터 앞에 앉아있다. 정규표현식에 공백을 포함하지 않았다던가 경로를 초기화 해주지 않고 불렀다던가 등의 자질구레한 실수들이 많았다. 당연히 잘했겠지 싶은 부분에서 실수가 많이 나왔다. 그래서 틀린 곳이 어딘지 찾기 어려웠다. ㅠ 오늘은 코딩테스트 문제 풀고 1주차의 심화 과제 밀린 것 풀고 강의 듣고 또 눈에 보이는 질문 해결(?)해주고 팀원들에게 포트폴리오 보여주며 지금까지 한 프로젝트와 거기서 깨달은 바 등을 전달하고 코딩 테스트 같이 공부하는 캠퍼들과 온라인..

[학습일지 / day 6] 부덕아... 불 좀 꺼줄래?

와... 하루 종일 기본 과제를 풀었다. 오전에 코테 공부하고 오후에 자소서 2개 쓰고 그리고 나서 강의를 듣기 시작했다. 강의 자체는 가벼운 느낌이었는데 기본 과제가 정말 양이 많고 헤비했다. 그래도 과제로 내준 문서를 차근차근 따라가며 학습을 하다보니 pytorch에 대한 전반적인 이해도가 높아진 것 같아서 되게 뿌듯한 느낌이다. 문제 풀이는 최대한 스스로 하려고 했지만 막혀서 답이 안 보이는 경우에는 자료를 찾아보기도 했다. torch.gather() 나 hook의 사용이 낯설었고 또 어려웠다. 강의 내용 중에 행렬 곱셈 연산에 torch.mm() 함수를 쓴다고 해서 오... 그랬구나 했는데 이제는 너무나도 익숙해져버렸다. 기본적인 함수들은 이미 몸에 베어버린 것만 같다. 와... 이제 자야지 정말..