티스토리 뷰
딥러닝 2단계_심층 신경망 성능 향상시키기(3).docx
0.47MB
edwith 딥러닝 2단계 <하이퍼파라미터 튜닝> & <Batch Normalization>
이번에는 딥러닝 모델의 성능 향상을 위해 꼭 필요한 요소인 하이퍼파라미터 튜닝과 Batch Normalization을 학습했습니다.
'Google DSC > Natural Language Processing' 카테고리의 다른 글
| [6주차] 심층 신경망 성능 향상시키기(4) (0) | 2020.02.19 |
|---|---|
| [5주차] 자동차 연비 예측하기_회귀 실습 (0) | 2020.02.13 |
| [4주차] 심층 신경망 성능 향상시키기(2) (0) | 2020.02.05 |
| [3주차] 심층 신경망 성능 향상시키기 (0) | 2020.01.29 |
| [2주차] 신경망과 딥러닝(2) (0) | 2020.01.21 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- 프론트엔드
- 항해솔직후기
- 경력기술면접
- 기술면접
- 개발자
- edwith
- 하이퍼파라미터
- 배치정규화
- 항해플러스
- 가상돔
- 딥러닝
- 이직
- 머신러닝
- 자바스크립트개념
- 항해플러스프론트엔드
- 최적화알고리즘
- 심층신경망
- 딥러닝2단계
- SungKim
- virtual dom
- 항해99
- 항해플러스5기
- 프론트엔드개발자
- 5기
- 경력
- 항해플러스후기
- 프론트엔드기술면접
- 최적화문제
- 모두를위한머신러닝딥러닝
- 브라우저 렌더링
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
글 보관함