예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (111)
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (4)
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (0)
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

stanford cs231n 필기본 openAI API Key Learning rate docker firebase 졸업프로젝트 모두를 위한 딥러닝 시즌2 파이토치 aws IoT core aws lambda pytorch stanford cs236 필기본 docker container cs236: deep generative models django 프로젝트 구조 딥러닝 cost 계산 라즈베리파이 cs231n: deep learning for computer vision gradient descent Tensor Manipulation

최근글

댓글

공지사항

아카이브

DataLoader(1)

  • [PyTorch] Loading Data 실습 : 모두를 위한 딥러닝 시즌2

    Data Loading 이론 요약  너무 많은 양의 데이터를 한 번에 학습시키면 속도가 느리고, 하드웨어에도 부담이 될 수 있다. 이러한 문제를 해결하기 위해 전체 데이터를 균일하게 나눠서 학습시키는 Minibatch Gradient Descent를 사용한다. 데이터를 나눠서 사용하기 때문에 파라미터를 업데이트할 때마다 계산할 Cost의 양은 줄어들고 업데이트 주기가 빨라진다. 그러나 전체 데이터를 사용하지 않아서 잘못된 방향으로 업데이트가 될 수 있고, 일반적인 Gradient Descent에 비해 Cost가 거칠게 줄어든다.Data Loading 구현 코드라이브러리 import# Library importimport torchfrom torch.utils.data import Datasetfrom t..

    2024.09.05
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바