예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (113) N
    • Artificial Intelligence (63)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (1)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (5) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (1) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

firebase 모두를 위한 딥러닝 시즌2 gradient descent stanford cs231n 필기본 Learning rate 파이토치 aws lambda 졸업프로젝트 Tensor Manipulation cs231n: deep learning for computer vision cs236: deep generative models 라즈베리파이 stanford cs236 필기본 pytorch docker container aws IoT core django 프로젝트 구조 openAI API Key docker 딥러닝 cost 계산

최근글

댓글

공지사항

아카이브

비용함수 편미분(1)

  • [PyTorch] Gradient Descent 심화 실습 : 모두를 위한 딥러닝 시즌2

    Gradient Descent 이론 요약 Gradient Descent는 비용 함수의 최솟값을 찾기 위해, 기울기를 사용하며 파라미터를 업데이트하는 방법이다. 아래 그래프의 경우 W=1일 때 Cost는 0으로 최솟값을 갖는다. 현재 파라미터에서 이차 함수의 기울기를 구하고, 학습률을 적용하여 파라미터값을 업데이트한다. 함수의 기울기가 0에 가까워질 때까지 이 과정을 반복한다.Gradient Descent 구현 코드  지난 포스팅에서는 torch.optim과 zero_grad, backward, step 함수들을 이용해서 Gradient Descent를 진행했다. 이번에는 앞서 언급한 함수를 사용하지 않고, 직접 Gradient를 계산하고 업데이트하는 코드를 작성했다. # Data definitionx_t..

    2024.08.31
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바