꿀맛같은 3.1 휴식이 있어서 좋았던 날....
그러나 딥러닝의 벽은 여전히 높았다 ㅠ
텐서플로우를 설명을 많이 해주셨던 한 주였다.
간단하게 배운 코드를 말하자면
keras.backend.clear_session()
model = keras.models.Sequential()
model.add( keras.layers.Input(shape = (?,)))
model.add(keras.layers.Dense(?))
model.compile(loss = '?', optimizer = '?')
이런 느낌이였는데 사실 이건 Sequential 방식으로 쌓은 딥러닝 코드고
기존 성능은 Functional 방식으로 쌓는게 더 효율이 좋다고 한다!
그리고 히든레이어의 중요성도 많은 설명을 들었었는데
히든레이어를 이용해 딥러닝 인공신경망을 좀 더 거대한 신경망으로 만드는게 주 목적이였다고 배웠던 것 같다.
그리고 분류하는 방식은 되게 많이 헷갈렸는데
loss는
선형회귀 - mse , linear
로지스틱 - binary crossentropy , sigmoid
다중분류는 categorical crossentropy , softmax
정도로 생각하면 될 것 같다.
사실 글을 작성하는 아직까지도 완벽하다고는 할 수 없겠지만.. 점점 나아져가는 모습을 보이는 것 만으로도 만족할랜다..
'KT Aivle 스쿨' 카테고리의 다른 글
KT AIVLE SCHOOL 6주차 AI모델 해석/평가 (3.9 ~ 3.10) (0) | 2023.03.26 |
---|---|
KT AIVLE SCHOOL 6주차 2차 미니프로젝트 (3.6 ~ 3.8) (0) | 2023.03.26 |
KT AIVLE SCHOOL 4주차 머신러닝 (2.20 ~ 2.24) (0) | 2023.03.26 |
KT AIVLE SCHOOL 3주차 웹크롤링 (2.16 ~ 2.17) (0) | 2023.02.25 |
KT AIVLE SCHOOL 3주차 미니프로젝트 (2.13 ~ 2.15) (0) | 2023.02.21 |