|
러닝과 딥러닝, 인피니티북스. 1. 딥러닝의 역사와 관련된 사건 또는 인물을 위키피디아 등을 바탕으로 정리하시오.
2. 다층신경망의 학습과정을 정리하시오.
3. http://playground.tensorflow.org/ 를 크롬으로 접속하여 분류과제(Classification) 중
|
- 페이지 9페이지
- 가격 7,000원
- 등록일 2021.09.11
- 파일종류 한글(hwp)
- 참고문헌 있음
- 최근 2주 판매 이력 없음
|
|
러닝과 딥러닝, 인피니티북스.
https://chat.openai.com/ 1. Teachable Machine을 이용하여 자신의 머신러닝 모형을 만들고 그 결과를 캡처하여 정리하시오. (8점)
2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에서 찾고 이를 기반으로 다층
|
- 페이지 11페이지
- 가격 9,000원
- 등록일 2023.10.16
- 파일종류 한글(hwp)
- 참고문헌 있음
- 최근 2주 판매 이력 없음
|
|
러닝과 딥러닝, 인피니티북스.
https://chat.openai.com/ 1. Teachable Machine을 이용하여 충분한 데이터(10개 이상)로 자신의 머신러닝 모형을 만들고 그 결과를 정리하시오.(8점)
2. 다층신경망의 학습과정을 ChatGPT(또는 Bard, Bing Chat 등)에 물어서 찾
|
- 페이지 11페이지
- 가격 9,000원
- 등록일 2024.03.25
- 파일종류 한글(hwp)
- 참고문헌 있음
- 최근 2주 판매 이력 없음
|
|
신경망을 하이퍼파라미터를 달리하여 작성한 후 그 모형의 특성을 정리하시오. (8점)
4. 구글 Colab을 이용하여 MNIST에 대한 완전연결신경망을 작성하시오. 교재의 코드를 참고하되 그대로 작성하지 않고 신경망 구조(은닉층 수, 뉴론 등)
|
- 페이지 9페이지
- 가격 10,000원
- 등록일 2022.10.19
- 파일종류 한글(hwp)
- 참고문헌 있음
- 최근 2주 판매 이력 없음
|
|
학습할 수 있게 된다.
그러나 신경망을 무조건 크게 만든다고 성능이 계속 좋아지는 것은 아니며, 오히려 과적합(overfitting) 이나 기울기 소실(vanishing gradient) 등의 문제가 발생할 수 있다. 또한 모델이 커질수록 학습에 필요한 계산 자원과 시간
|
- 페이지 6페이지
- 가격 3,000원
- 등록일 2024.11.06
- 파일종류 한글(hwp)
- 참고문헌 있음
- 최근 2주 판매 이력 없음
|