예름의 개발 TIL

예름의 개발 TIL

  • 분류 전체보기 (111)
    • Artificial Intelligence (62)
      • 모두를 위한 딥러닝 (PyTorch) (13)
      • Computer Vision (10)
      • CS231n (Stanford) (17)
      • CS236 (Stanford) (19)
    • Project Log (31)
      • 학부 졸업프로젝트 (31)
    • Mobile Programming (5)
    • AWS (3)
    • Node.js (1)
    • Distributed System (0)
    • Paper (4)
      • Robotics (1)
      • Ubiquitous AI (1)
      • How to read (1)
      • Human-centric Ubiquitous In.. (1)
      • Trustworthy AI (0)
    • Etc (5)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

예름의 개발 TIL

컨텐츠 검색

태그

openAI API Key aws IoT core 라즈베리파이 cs236: deep generative models 졸업프로젝트 firebase 모두를 위한 딥러닝 시즌2 django 프로젝트 구조 파이토치 pytorch gradient descent docker container aws lambda Tensor Manipulation cs231n: deep learning for computer vision 딥러닝 cost 계산 Learning rate docker stanford cs236 필기본 stanford cs231n 필기본

최근글

댓글

공지사항

아카이브

데이터로더(1)

  • [PyTorch] Loading Data 실습 : 모두를 위한 딥러닝 시즌2

    Data Loading 이론 요약  너무 많은 양의 데이터를 한 번에 학습시키면 속도가 느리고, 하드웨어에도 부담이 될 수 있다. 이러한 문제를 해결하기 위해 전체 데이터를 균일하게 나눠서 학습시키는 Minibatch Gradient Descent를 사용한다. 데이터를 나눠서 사용하기 때문에 파라미터를 업데이트할 때마다 계산할 Cost의 양은 줄어들고 업데이트 주기가 빨라진다. 그러나 전체 데이터를 사용하지 않아서 잘못된 방향으로 업데이트가 될 수 있고, 일반적인 Gradient Descent에 비해 Cost가 거칠게 줄어든다.Data Loading 구현 코드라이브러리 import# Library importimport torchfrom torch.utils.data import Datasetfrom t..

    2024.09.05
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바