예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (117) N
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
      • LG Aimers 7기 (0)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (10) N
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (6) N
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

django 프로젝트 구조 stanford cs231n 필기본 aws lambda docker cs231n: deep learning for computer vision Learning rate gradient descent 라즈베리파이 pytorch 파이토치 aws IoT core 딥러닝 cost 계산 모두를 위한 딥러닝 시즌2 openAI API Key docker container firebase cs236: deep generative models stanford cs236 필기본 Tensor Manipulation 졸업프로젝트

최근글

댓글

공지사항

아카이브

epoch 의미(1)

  • [PyTorch] Gradient Descent 심화 실습 : 모두를 위한 딥러닝 시즌2

    Gradient Descent 이론 요약 Gradient Descent는 비용 함수의 최솟값을 찾기 위해, 기울기를 사용하며 파라미터를 업데이트하는 방법이다. 아래 그래프의 경우 W=1일 때 Cost는 0으로 최솟값을 갖는다. 현재 파라미터에서 이차 함수의 기울기를 구하고, 학습률을 적용하여 파라미터값을 업데이트한다. 함수의 기울기가 0에 가까워질 때까지 이 과정을 반복한다.Gradient Descent 구현 코드  지난 포스팅에서는 torch.optim과 zero_grad, backward, step 함수들을 이용해서 Gradient Descent를 진행했다. 이번에는 앞서 언급한 함수를 사용하지 않고, 직접 Gradient를 계산하고 업데이트하는 코드를 작성했다. # Data definitionx_t..

    2024.08.31
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바