2021. 1. 13. 20:15ㆍ언어영역/Machine Learning
본 포스팅은 오픈튜토리얼즈에서 제공하는 머신야학 2기 참여자로서 필기를 위해 자의적으로 남기는 글이다. 모쪼록 오픈튜토리얼즈가 많은 후원을 받아서 더 질 좋은 영상과 컨텐츠로 찾아오면 좋겠다. 공부를 시작하자.
Review
이제부턴 본격적으로 이미지 분류 모델을 만들 것 처럼 보인다. 그 전에 먼저 가장 도외시했던, 머신러닝이란 무엇인가에 대한 복습을 진행하고 가자.
insomnia.tistory.com/6?category=953725
다시 이곳에서 별 생각 없이 내가 쓰던 글을 죽 읽던 중, 마지막 문단에서 내가 별로 배운 것 같지가 않다고 투덜대는 내용을 보자 부끄러움을 차마 감출 수 없었다. 세상에, 나는 별로 배운 것도 없다고 생각했지만 사실은 나는 그것조차도 까먹고 있었던 것이다... 기억곡선이 괜히 존재하는 게 아니구나. 복습은 꼭 진행하는 게 좋을 성 싶다.
Flatten
Flatten은 말 그대로 Flatten이다. (?) 다시 말해서, 2배열차원인 이미지 파일을 1배열차원으로 변환시키는 역할을 하게 된다. 만약 이 명령어가 없다면 우리는 데이터 전처리 과정에서 2배열차원 데이터를 reshape(또는 ravel)를 통해 1배열차원으로 변환시켜야 한다. 그렇게 되면 바꾸자 하는 부분 뿐만 아니라 그 데이터를 포함하는 모든 원본 파일의 형태가 달라지기 때문에, 데이터가 많을 땐 특히 Flatten이 유용하게 사용된다.
Swish
CNN(Convolutional Neural Network), 즉 시각 영상을 분석하는 데 유용한 활성화함수이다. Signoid Function을 개선한 ReLU 함수보다 더 효율이 좋다는 얘기가 있다. 일단은 이후 CNN에 대해서 더 자세히 알아볼 때 까지는 모르는게 약인 것 같다... 계속해서 공부해보자.
REFERENCE
'언어영역 > Machine Learning' 카테고리의 다른 글
Tensorflow 102 -7.1~13 (0) | 2021.01.14 |
---|---|
Tensorflow 102 - 7~8 Conv2D (0) | 2021.01.14 |
Mahcine Learning 야학 102 - 1~4, 차원 알아보기 (0) | 2021.01.10 |
TensorFlow101-14~16 Sigmoid와 Softmax의 차이점 (0) | 2021.01.02 |
TensorFlow 101-13 회귀모형 인공지능의 원리 (0) | 2020.12.31 |